MosaicML Foundation представляет MPT-7B, открытую большую языковую модель, обученную на 1 трлн токенов текста и кода
MPT-7B обеспечивает оптимизацию производительности, стабильность обучения и отсутствие ограничений на длину контекста, что делает ее идеальной для коммерческого использования в предиктивной аналитике и принятии решений