12月17日最新消息显示,小米自研的MiMo-V2-Flash大模型正式开源。该混合专家(MoE)架构模型总参数规模达3090亿(激活参数量150亿),其代码生成能力可比肩国际闭源标杆Claude Sonnet 4.5模型,在推理成本方面却仅需后者2.5%。具体来看:该模型API调用费用设定为输入端0.7元/百万token、输出端2.1元/百万token。目前该模型的权重与推理代码已全面开放源代码,并提供API限时免费试用服务,配套体验网页版Demo也已同步上线。(广角观察)
小米MiMo-V2-Flash开源
📝版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
📌文章名称:《小米MiMo-V2-Flash开源》
📌文章链接:https://www.fsgameo.com/breaking-news/11858.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
📌文章名称:《小米MiMo-V2-Flash开源》
📌文章链接:https://www.fsgameo.com/breaking-news/11858.html
⚠须知:本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。












