IT采购网6月25日消息,AI创业公司MosaicML近日发布了一款名为MPT-30B的语言模型,该模型拥有300亿参数,训练成本远低于其他竞争对手,有望推动AI模型在更广泛领域的应用并逐步降低训练成本。
MosaicML首席执行官兼联合创始人NaveenRao表示,MPT-30B的训练成本仅为70万美元(约502.44万元人民币),远低于类似产品如GPT-3所需的数千万美元训练成本。该模型由于成本低、体积小,可以更快速地进行训练,并且更适合在本地硬件上部署。
据IT采购网了解,MosaicML采用了Alibi和FlashAttention技术来优化模型,这些技术可以实现更长的文本长度和更高的GPU计算利用率。MosaicML还是少数几个能够使用NvidiaH100 GPU的实验室之一,相较于以往的成果,他们的每块GPU吞吐量提高了2.4倍以上,从而可以更快地完成训练过程。
除了使AI技术更易获取外,MosaicML还专注于提高数据质量并提升模型性能。他们目前正在开发一款工具,可以在预训练过程中逐步引入特定领域的数据,以确保训练中包含多样化且高质量的数据组合。
MosaicML表示,将模型参数扩展到300亿只是第一步,接下来他们将以降低成本为前提,推出更大体积、更高质量的模型。
需要注意的是,开发者可以从Hugging Face下载并使用开源的MPT-30B基础模型,还可以使用自己的数据在本地硬件上进行微调。