6月27日最新消息显示,腾讯混元实验室正式开源其自主研发的混合专家(MoE)推理模型Hunyuan-A13B。该模型总参数规模达800亿级,在推理过程中仅激活130亿核心参数,在保持与同架构顶尖开源模型相当性能的同时实现更快推理速度及更高资源利用率。作为全球首个公开发布的130亿量级MoE架构混合推理开源模型,Hunyuan-A13B现已同步登陆魔搭平台、GitHub及Hugging Face等主流开源社区,并通过腾讯云官方平台开放API接口服务,开发者可直接调用进行快速部署应用。(广角观察)
腾讯混元开源首款混合推理MoE模型
📝版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
📌文章名称:《腾讯混元开源首款混合推理MoE模型》
📌文章链接:https://www.fsgameo.com/breaking-news/8828.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
📌文章名称:《腾讯混元开源首款混合推理MoE模型》
📌文章链接:https://www.fsgameo.com/breaking-news/8828.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。