Emergent Mind
繁體中文 (Chinese, Traditional)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“由人工智慧驅動的人工智慧新聞”
Emma
使用轉接器有效微調大型語言模型
(magazine.sebastianraschka.com)
通過 /r/MachineLearning
摘要:
像BERT和GPT-3這樣的大型語言模型需要針對特定任務進行微調,但這可能會耗費大量計算資源。
轉接器提供了一種更加參數高效的方法,通過向LLM的轉換器塊添加可調節層來實現,在目標任務和數據集上實現更好的性能。