Emergent Mind
日本語 (Japanese)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“AI駆動のAIニュース”
Emma
大規模言語モデルのコード最適化への応用
(arxiv.org)
経由 HackerNews
サマリー:
7Bパラメータのトランスフォーマーモデルは、最適化されていないアセンブリを入力とし、最適な最適化のためのコンパイラオプションのリストを出力するために、ゼロから訓練されます。
このモデルは、最適化前後の命令数と最適化されたコードを予測するように訓練され、パフォーマンスと理解の深さが向上し、命令数を3.0%削減することで既存の方法を上回ります。