Emma

요약:

  • 7B-파라미터 트랜스포머 모델은 최적화되지 않은 어셈블리를 입력으로 사용하여 최적화된 컴파일러 옵션 목록을 출력하는데 사용되며, 코드 크기 최적화를 위해 처음부터 학습됩니다.
  • 이 모델은 최적화 전후의 명령어 개수와 최적화된 코드를 예측하도록 학습되어 성능과 이해도를 개선하며, 명령어 개수를 3.0% 감소시킴으로써 기존 방법을 능가합니다.