推广 热搜: 京东  联通  iphone11  摄像头  企业存储  iPhone  XSKY  京东智能采购  网络安全  自动驾驶 

MiniMax 稀宇科技推出万亿参数MoE模型abab 6.5 ,核心能力接近 GPT-4

   日期:2024-04-18     作者:itcg    浏览:309    我要评论    

IT采购网4月17日消息,国内AI初创企业MiniMax稀宇科技今日宣布,他们已成功研发出基于MoE(Mixture ofExperts)混合专家模型架构的abab6.5系列模型,这标志着该公司在人工智能领域取得了重要突破。据悉,该系列模型的核心能力已经开始接近当前领先的GPT-4、Claude-3和Gemini-1.5等模型。

abab 6.5系列包含两个重要模型:abab 6.5和abab 6.5s。其中,abab 6.5模型拥有万亿级别的参数,能够支持长达200ktokens的上下文长度,展现出强大的语言处理能力。而abab 6.5s模型则在保持与abab6.5相同训练技术和数据的基础上,实现了更高的效率。它同样支持200ktokens的上下文长度,并且能在1秒内处理近3万字的文本,为实时、高效的语言处理提供了可能。

据IT采购网了解,自今年1月MiniMax发布国内首个基于MoE架构的abab6模型以来,该公司一直致力于通过改进模型架构、重构数据pipeline、优化训练算法及并行训练策略等手段,加速ScalingLaws的过程。这一系列努力终于取得了阶段性的成果,即abab 6.5系列的诞生。

为了验证abab6.5系列模型的性能,MiniMax官方进行了业界常用的“大海捞针”测试。在该测试中,官方在一段很长的文本中插入一个与该文本无关的句子,并尝试通过自然语言向模型提问,以检验模型是否能够准确找出这个“针”。经过891次测试,abab6.5均能够准确地回答出这个“针”,展现出极高的精确度和可靠性。

随着abab 6.5与abab6.5s模型的推出,MiniMax稀宇科技将进一步巩固其在人工智能领域的地位。这两个模型将陆续更新至MiniMax旗下的产品中,包括海螺AI和MiniMax开放平台。

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
0相关评论

头条阅读
推荐图文
相关资讯
网站首页  |  物流配送  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报  |  京ICP备14047533号-2
Processed in 0.146 second(s), 11 queries, Memory 1.48 M