Um modelo de transformador com 7 bilhões de parâmetros é treinado do zero para otimizar o assembly LLVM para tamanho de código, recebendo o código assembly não otimizado como entrada e produzindo uma lista de opções de compilador para melhor otimização.
O modelo é treinado para prever as contagens de instruções antes e depois da otimização, além do código otimizado, melhorando seu desempenho e profundidade de compreensão, e supera os métodos existentes reduzindo as contagens de instruções em 3,0%.