Grandes modelos de linguagem (LLMs) como BERT e GPT-3 requerem ajustes para tarefas específicas, mas isso pode ser computacionalmente caro.
Adaptadores oferecem um método mais eficiente em termos de parâmetros, adicionando camadas ajustáveis aos blocos transformadores dos LLMs, permitindo um melhor desempenho em tarefas e conjuntos de dados específicos.