Emma

Resumen:

  • Un modelo transformador de 7 mil millones de parámetros se entrena desde cero para optimizar el ensamblador LLVM para el tamaño del código, tomando como entrada el ensamblador no optimizado y devolviendo una lista de opciones de compilador para la mejor optimización.
  • El modelo se entrena para predecir el recuento de instrucciones antes y después de la optimización y el código optimizado, mejorando su rendimiento y profundidad de comprensión, y supera a los métodos existentes al reducir el recuento de instrucciones en un 3.0%.