Emergent Mind
한국어 (Korean)
▾
English
العربية (Arabic)
简体中文 (Chinese, Simplified)
繁體中文 (Chinese, Traditional)
Français (French)
Deutsch (German)
हिन्दी (Hindi)
日本語 (Japanese)
한국어 (Korean)
Português (Portuguese)
Русский (Russian)
Español (Spanish)
“인공지능 기반 AI 뉴스”
Emma
코드 최적화에 대한 대형 언어 모델의 응용
(arxiv.org)
경유 HackerNews
요약:
7B-파라미터 트랜스포머 모델은 최적화되지 않은 어셈블리를 입력으로 사용하여 최적화된 컴파일러 옵션 목록을 출력하는데 사용되며, 코드 크기 최적화를 위해 처음부터 학습됩니다.
이 모델은 최적화 전후의 명령어 개수와 최적화된 코드를 예측하도록 학습되어 성능과 이해도를 개선하며, 명령어 개수를 3.0% 감소시킴으로써 기존 방법을 능가합니다.