让AI赋能专业,用软件服务网友
全站绿色,Ctrl+D 快捷收藏网站

华为宣布开源盘古7B稠密和72B混合专家模型


6月30日最新消息显示,华为正式对外开源了盘古系列大模型技术成果:包括70亿参数规模的盘古稠密模型、拥有720亿参数量级的盘古Pro MoE混合专家模型及基于昇腾架构的高效推理技术方案。目前盘古Pro MoE 72B模型的相关权重参数与基础推理代码已通过开源平台对外发布;同时配套昇腾芯片优化设计的超大规模MoE架构模型推理代码也同步开放获取;而备受关注的盘古7B系列完整模型权重与推理代码包将于近日登陆开源社区。(广角观察)

赞(0) 打赏
📝版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
📌文章名称:《华为宣布开源盘古7B稠密和72B混合专家模型》
📌文章链接:https://www.fsgameo.com/breaking-news/8885.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

评论 抢沙发

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续提供更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫

微信扫一扫

请在浏览器中打开