Un modèle de transformation de 7 milliards de paramètres est entraîné à partir de zéro pour optimiser l'assemblage LLVM en termes de taille du code, prenant l'assemblage non optimisé en entrée et produisant une liste d'options de compilation pour une meilleure optimisation.
Le modèle est entraîné à prédire les compteurs d'instructions avant et après l'optimisation ainsi que le code optimisé, améliorant ses performances et sa profondeur de compréhension, et surpassant les méthodes existantes en réduisant les compteurs d'instructions de 3,0%.