Emma

概要:

  • MosaicML基金会推出MPT-7B,这是一个开源的大型语言模型,训练了1万亿个文本和代码标记
  • MPT-7B提供了性能优化、训练稳定性和无上下文长度限制,非常适合商业应用于预测分析和决策制定。