6月30日最新消息显示,华为正式对外开源了盘古系列大模型技术成果:包括70亿参数规模的盘古稠密模型、拥有720亿参数量级的盘古Pro MoE混合专家模型及基于昇腾架构的高效推理技术方案。目前盘古Pro MoE 72B模型的相关权重参数与基础推理代码已通过开源平台对外发布;同时配套昇腾芯片优化设计的超大规模MoE架构模型推理代码也同步开放获取;而备受关注的盘古7B系列完整模型权重与推理代码包将于近日登陆开源社区。(广角观察)
华为宣布开源盘古7B稠密和72B混合专家模型
📝版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
📌文章名称:《华为宣布开源盘古7B稠密和72B混合专家模型》
📌文章链接:https://www.fsgameo.com/breaking-news/8885.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
📌文章名称:《华为宣布开源盘古7B稠密和72B混合专家模型》
📌文章链接:https://www.fsgameo.com/breaking-news/8885.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。