Emma

सारांश:

  • बड़े भाषा मॉडल (LLMs) जैसे BERT और GPT-3 को विशिष्ट कार्यों के लिए फाइन-ट्यून करने की आवश्यकता होती है, लेकिन यह कम्प्यूटेशनली महंगा हो सकता है।
  • एडाप्टर एक अधिक पैरामीटर-एफिशियंट तकनीक प्रदान करते हैं, जो LLMs के ट्रांसफॉर्मर ब्लॉकों में ट्यूनेबल लेयर जोड़कर लक्ष्य कार्यों और डेटासेट पर बेहतर प्रदर्शन करने की अनुमति देते हैं।