Emma

摘要:

  • 像BERT和GPT-3這樣的大型語言模型需要針對特定任務進行微調,但這可能會耗費大量計算資源。
  • 轉接器提供了一種更加參數高效的方法,通過向LLM的轉換器塊添加可調節層來實現,在目標任務和數據集上實現更好的性能。