让AI赋能专业,用软件服务网友
全站绿色,Ctrl+D 快捷收藏网站

腾讯混元开源首款混合推理MoE模型


6月27日最新消息显示,腾讯混元实验室正式开源其自主研发的混合专家(MoE)推理模型Hunyuan-A13B。该模型总参数规模达800亿级,在推理过程中仅激活130亿核心参数,在保持与同架构顶尖开源模型相当性能的同时实现更快推理速度及更高资源利用率。作为全球首个公开发布的130亿量级MoE架构混合推理开源模型,Hunyuan-A13B现已同步登陆魔搭平台、GitHub及Hugging Face等主流开源社区,并通过腾讯云官方平台开放API接口服务,开发者可直接调用进行快速部署应用。(广角观察)

赞(0) 打赏
📝版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
📌文章名称:《腾讯混元开源首款混合推理MoE模型》
📌文章链接:https://www.fsgameo.com/breaking-news/8828.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

评论 抢沙发

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续提供更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫

微信扫一扫

请在浏览器中打开