Emma

Resumen:

  • MosaicML Foundation presenta MPT-7B, un gran modelo de lenguaje de código abierto entrenado en 1 trillón de tokens de texto y código.
  • MPT-7B ofrece optimización de rendimiento, estabilidad de entrenamiento y sin limitaciones de longitud de contexto, lo que lo hace ideal para uso comercial en análisis predictivo y toma de decisiones.