数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 222|回复: 3

[业界] 性能再翻倍:科大讯飞宣布联合华为在“飞星一号”上实现 MoE 模型

[复制链接]
发表于 2025-4-19 01:38:15 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
4 月 18 日IT之家消息,科大讯飞研究院今日宣布,科大讯飞与华为昇腾联合团队通过多种优化手段提升“飞星一号”平台上 MoE 模型集群推理的性能上限,并在近期实现大规模专家并行集群推理性能翻番。
据介绍,科大讯飞不久前率先突破国产算力集群上 MoE 模型的大规模跨节点专家并行集群推理,公布业界首个基于国产算力的 MoE 模型训练推理方案。
在上一个版本算子和通信优化的基础之上,联合团队升级了适配 MOE 模型的 PD 分离 + 大规模专家并行系统解决方案,进行了多种技术创新工作,IT之家总结如下:
  • 适配 MoE 的 PD 分离部署,通过定制集合通信协议,消除集合通信流量冲突,解决推理过程中 Prefill 阶段和 Decode 阶段的相互干扰,使得 P 实例和 D 实例均达到系统最优,性能提升 20%+;
  • 实现国产算力上 MTP 多 token 预测技术,降低 MTP 层计算耗时,整体性能提升 30%+;
  • 专家负载均衡算法再升级,多 DP 负载均衡,实现卡间负载均衡差异小于 8%,集群推理吞吐性能提升 30%+;
  • 创新性实现异步双发射技术,解决高并发下的高 CPU 负载问题,实现 CPU 和 NPU 的高效协同,降低服务请求调度耗时,系统性能提升 10%。

基于上述解决方案的迭代与升级,联合团队通过在“飞星一号”平台上对星火 MoE 模型、DeepSeekV3 / R1 进行实测,实现了推理性能比上一个版本提升 1 倍,已逼近国产算力上 MoE 集群推理的性能上限。

发表于 2025-4-19 07:37:16 | 显示全部楼层
不管技术怎么样,反正名字要唬人,

各种神兽,妖怪全上阵。
回复 支持 反对

使用道具 举报

发表于 2025-4-19 11:14:27 | 显示全部楼层
自主可控才可不受制于人。
回复 支持 反对

使用道具 举报

发表于 2025-4-19 13:54:08 | 显示全部楼层
希望是真有突破而不是营销手段
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-6-21 08:16 , Processed in 0.171600 second(s), 11 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表