Emergent Mind
繁體中文 (Chinese, Traditional)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“由人工智慧驅動的人工智慧新聞”
Emma
大型語言模型在代碼優化中的應用
(arxiv.org)
通過 HackerNews
摘要:
從頭開始訓練了一個擁有7B參數的Transformer模型,用於優化LLVM組合語言的代碼大小,將未優化的組合語言作為輸入,輸出最佳優化的編譯器選項列表。
該模型被訓練用於預測優化前後的指令計數和優化後的代碼,提高了性能和理解深度,通過減少指令計數3.0%,優於現有方法。