Ein 7B-Parameter-Transformer-Modell wird von Grund auf trainiert, um LLVM-Assembly für Codegröße zu optimieren. Es nimmt nicht optimierte Assembly als Eingabe entgegen und gibt eine Liste von Compileroptionen für die beste Optimierung aus.
Das Modell ist darauf trainiert, die Anzahl der Anweisungen vor und nach der Optimierung sowie den optimierten Code vorherzusagen. Dadurch verbessert es seine Leistung und sein Tiefenverständnis und übertrifft bestehende Methoden, indem es die Anzahl der Anweisungen um 3,0% reduziert.