Emma

ملخص:

  • يتم تدريب نموذج المحول الذي يحتوي على 7 مليارات معلمة من البداية لتحسين تجميع LLVM لحجم الشفرة ، حيث يتم أخذ التجميع غير المحسن كمدخلات وإخراج قائمة من خيارات المترجم للحصول على أفضل تحسين.
  • يتم تدريب النموذج للتنبؤ بعدد التعليمات قبل وبعد التحسين والشفرة المحسنة ، مما يحسن أدائه وزيادة فهمه ، ويفوق الطرق الموجودة الحالية من خلال تقليل عدد التعليمات بنسبة 3.0٪.