Emma

요약:

  • BERT나 GPT-3와 같은 대용량 언어 모델은 특정 작업을 위해 세부 조정해야하지만, 이는 계산 비용이 많이 듭니다.
  • 어댑터는 LLM의 transformer 블록에 조정 가능한 레이어를 추가함으로써 더 많은 전용 작업 및 데이터셋에서 더 나은 성능을 제공하는 더 효율적인 방법을 제공합니다.