Emma

概要:

  • 我们从头开始训练了一个70亿参数的Transformer模型,用于优化代码大小的LLVM汇编,将未优化的汇编作为输入,输出最佳优化的编译器选项列表。
  • 该模型经过训练,能够预测优化前后的指令计数和优化后的代码,提高了性能和深度理解,并通过将指令计数减少3.0%来超越现有方法。