首页 > 科技 > 智能 书生・浦语 20B 开源 AI 大模型发布,消费级 GPU 单卡即可运行

书生・浦语 20B 开源 AI 大模型发布,消费级 GPU 单卡即可运行

感谢IT之家网友 华科学霸 的线索投递! IT之家 9 月 21 日消息,今年 6 月,上海 AI 实验室发布了“书生・浦语”(InternLM)大模型,为 104B 参数,后续又推出了 7B 和 13B 规格模型。近日,上海 AI 实验室、商汤科技、香港中文大学、复旦大学宣布推出书生・浦语 20B 版本,这是一款中量级大模型,号称基于 2.3T Tokens 预训练语料从头…

感谢IT之家网友 华科学霸 的线索投递!

IT之家 9 月 21 日消息,今年 6 月,上海 AI 实验室发布了“书生・浦语”(InternLM)大模型,为 104B 参数,后续又推出了 7B 和 13B 规格模型。

近日,上海 AI 实验室、商汤科技、香港中文大学、复旦大学宣布推出书生・浦语 20B 版本,这是一款中量级大模型,号称基于 2.3T Tokens 预训练语料从头训练,相较于 InternLM-7B,其理解能力、推理能力、数学能力、编程能力等都有显著提升。

据介绍,相比于此前国内陆续开源的 7B 和 13B 规格模型,20B 量级模型具备更强大的综合能力,复杂推理和反思能力尤为突出,能为实际应用场景提供更有力的性能支持;同时,20B 量级模型可在单卡上进行推理,经过低比特量化后,可运行在单块消费级 GPU 上,因而在实际应用中更为便捷。

相比于此前的开源模型,InternLM-20B 拥有几大亮点,IT之家汇总如下:

以不足 1/3 的参数量,测评成绩达到了 Llama2-70B 的水平。

支持数十类插件,上万个 API 功能,还具备代码解释和反思修正能力。

实现了对长文理解、长文生成和超长对话的有效支持,同时支持 16K 语境长度。

研究团队进行了基于 SFT 和 RLHF 两阶段价值对齐,并通过专家红队的对抗训练大幅提高其安全性。

此外,书生・浦语开源工具链也已全新升级,形成更完善的体系,包括预训练框架 InternLM-Train、低成本微调框架 XTuner、部署推理框架 LMDeploy、评测框架 OpenCompass 以及面向场景应用的智能体框架 Lagent。

图片

书生・浦语-20B:

https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm-20b

书生・浦语-对话-20B:

https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm-20b-chat

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

本文来自网络,不代表头条在线-头条新闻网立场。
上一篇高德发布安全出行大模型,100 多家网约车平台接入
下一篇 谷歌拟 2027 年放弃博通,自主研发 AI 芯片
头条新闻网

来源: IT之家

本文来源于IT之家。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部