Emma

Краткое содержание:

  • Модель-трансформер с 7 миллиардами параметров обучается с нуля для оптимизации LLVM-сборки по размеру кода, принимая неоптимизированную сборку в качестве входных данных и выводя список параметров компилятора для наилучшей оптимизации.
  • Модель обучается предсказывать количество инструкций до и после оптимизации, а также оптимизированный код, улучшая свою производительность и глубину понимания, и превосходит существующие методы, уменьшая количество инструкций на 3,0%.