Emma

摘要:

  • 從頭開始訓練了一個擁有7B參數的Transformer模型,用於優化LLVM組合語言的代碼大小,將未優化的組合語言作為輸入,輸出最佳優化的編譯器選項列表。
  • 該模型被訓練用於預測優化前後的指令計數和優化後的代碼,提高了性能和理解深度,通過減少指令計數3.0%,優於現有方法。