当前位置: 华闻网 - 互联

上海人工智能实验室等开源书生·浦语20B模型,阿里云魔搭社区全球首发

时间:2023-09-20 17:51    作者:牧晓   来源:中国网    阅读量:7068   

9月20日,上海人工智能实验室等机构发布书生·浦语大模型200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发、免费商用。书生·浦语大模型体系与魔搭社区建立重磅生态合作,共同推动中国大模型生态建设。

书生·浦语大语言模型由上海人工智能实验室联合多家机构共同推出。今年6月,InternLM千亿参数(104B)语言大模型首次发布,现已经历多轮升级;7月,上海人工智能实验室开源书生·浦语70亿参数的轻量级版本InternLM-7B,且在业内率先开源贯穿数据、预训练、微调、部署和评测的全链条工具体系。InternLM-7B也已上线魔搭社区。

本次发布的InternLM-20B是一款中量级大模型,性能先进且应用便捷,模型基于2.3T Tokens预训练语料从头训练,相较于InternLM-7B,其理解能力、推理能力、数学能力、编程能力等都有显著提升。

相比于此前国内陆续开源的7B和13B规格模型,20B量级模型具备更强大的综合能力,复杂推理和反思能力尤为突出,能为实际应用场景提供更有力的性能支持;同时,20B量级模型可在单卡上进行推理,经过低比特量化后,可运行在单块消费级GPU上,因而在实际应用中更为便捷。

相比于此前的开源模型,InternLM-20B拥有几大优势:一、优异的综合性能。不仅全面领先相近量级的开源模型,且以不足1/3的参数量,测评成绩达到了Llama2-70B的水平。二、强大的工具调用能力。支持数十类插件,上万个API功能,还具备代码解释和反思修正能力,为智能体的构建提供了良好的技术基础。三、更长的语境。实现了对长文理解、长文生成和超长对话的有效支持,同时支持 16K 语境长度。四、更安全的价值对齐。在研发训练的过程中,研究团队进行了基于SFT和RLHF两阶段价值对齐,并通过专家红队的对抗训练大幅提高其安全性。

书生·浦语开源工具链也已全新升级,形成更完善的体系,包括预训练框架InternLM-Train、低成本微调框架XTuner、部署推理框架 LMDeploy、评测框架OpenCompass 以及面向场景应用的智能体框架Lagent。书生·浦语工具链将和开源数据平台OpenDataLab构成强大的开源工具及数据体系,为业界提供全链条研发与应用支持。

魔搭社区开设了书生·浦语“模型品牌馆”专页,聚合书生·浦语系列所有模型及体验接口,便于开发者一站式查询、下载、使用书生模型;魔搭公众号则推出了最佳实践教程,提前跑通模型的部署、推理和微调流程,供开发者参考。

阿里云魔搭社区是国内规模最大、开发者最活跃的AI模型社区,拥有200多万开发者,聚集了20多家头部人工智能机构贡献的1000多款优质AI模型,为开发者提供一站式的模型体验、下载、推理、调优、定制等服务,社区模型累计下载量已突破7500万次。

“以开源开放促进中国大模型生态繁荣”是书生·浦语大模型体系与魔搭社区携手共建的初衷。上海人工智能实验室坚持通过开源开放,全面赋能AI社区生态的繁荣发展,支撑学术研究与产业发展。阿里云则把促进中国大模型生态的繁荣作为首要目标,牵头建设中国最大的AI模型开源社区魔搭,并为大模型企业和开发者提供全方位云服务。

上海人工智能实验室等开源书生·浦语20B模型,阿里云魔搭社区全球首发

相关内容