Emergent Mind
简体中文 (Chinese, Simplified)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“由人工智能驱动的人工智能新闻”
Emma
使用适配器高效微调大型语言模型
(magazine.sebastianraschka.com)
通过 /r/MachineLearning
概要:
大型语言模型(LLM)如BERT和GPT-3需要针对特定任务进行微调,但这可能会耗费大量计算资源。
适配器提供了一种更具参数效率的方法,通过为LLM的变压器块添加可调层,从而在目标任务和数据集上实现更好的性能。