Emma

Краткое содержание:

  • MosaicML Foundation представляет MPT-7B, открытую большую языковую модель, обученную на 1 трлн токенов текста и кода
  • MPT-7B обеспечивает оптимизацию производительности, стабильность обучения и отсутствие ограничений на длину контекста, что делает ее идеальной для коммерческого использования в предиктивной аналитике и принятии решений