Emma

Résumé:

  • MosaicML Foundation dévoile MPT-7B, un grand modèle de langue open-source entraîné sur 1 billion de jetons de texte et de code
  • MPT-7B offre une optimisation de la performance, une stabilité de l'entraînement et aucune limitation de la longueur de contexte, ce qui en fait l'idéal pour une utilisation commerciale en analytics prédictive et prise de décision