IT采购网9月21日消息,上海 AI 实验室与商汤科技、香港中文大学、复旦大学联手推出了一款崭新的中文大模型,号称"书生・浦语" 20B版本。这一重要的科技成果宣布了一次巨大的突破,该模型的性能和功能在多个方面都取得了显著提升。据了解,这款 20B 版本的模型是基于 2.3T Tokens的预训练语料从头训练的,具有强大的理解、推理、数学和编程能力,同时也在文本处理和安全性方面有了巨大的进步。
新发布的书生・浦语 20B 模型引人注目的一点是其卓越性能。尽管参数量不到 Llama2-70B的三分之一,但它在性能测试中表现出与相似规模模型相媲美的水平,实现了多方面的综合性能提升。模型还支持数十类插件和上万个 API功能,具备了代码解释和反思修正的能力,这使得它能够适应广泛的应用场景。
与此前的模型相比,书生・浦语 20B 版本在文本处理方面有了显著改进。它能够有效支持长文理解、长文生成和超长对话,同时还支持高达 16K字符的语境长度。这一特性将为处理复杂的文本任务提供更大的灵活性和效率。
在安全性方面,研究团队采用了两阶段价值对齐(SFT 和RLHF)以及专家红队的对抗训练,显著提高了模型的安全性。这一举措旨在防止不良用途,确保模型在实际应用中能够安全可靠地运行。
最后值得一提的是,书生・浦语 20B模型的开源工具链也经过全面升级,包括预训练框架、低成本微调框架、部署推理框架、评测框架以及智能体框架,这将有助于开发者更好地利用和应用这一创新技术。