Большие языковые модели (LLM), такие как BERT и GPT-3, требуют настройки для конкретных задач, но это может быть вычислительно дорого.
Адаптеры предлагают более параметрически эффективный метод, добавляя настраиваемые слои к блокам трансформера LLM, что позволяет лучше выполнять целевые задачи и наборы данных.