Emergent Mind
简体中文 (Chinese, Simplified)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“由人工智能驱动的人工智能新闻”
Emma
大型语言模型在代码优化中的应用
(arxiv.org)
通过 HackerNews
概要:
我们从头开始训练了一个70亿参数的Transformer模型,用于优化代码大小的LLVM汇编,将未优化的汇编作为输入,输出最佳优化的编译器选项列表。
该模型经过训练,能够预测优化前后的指令计数和优化后的代码,提高了性能和深度理解,并通过将指令计数减少3.0%来超越现有方法。