数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 40|回复: 0

[业界] 摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配

[复制链接]
发表于 昨天 18:51 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。
据介绍,作为业界首个 13B 级别的 MoE 开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达 800 亿,激活参数为 130 亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。
从混元官方发布的 benchmark 测试结果来看:Hunyuan-A13B 在多个代码和数学任务上都取得了最高分数。在 MMLU、MMLU-PRO 等诸多众聚合任务上,Hunyuan-A13B 达到了与 Qwen3-A22B 模型同等的水平,表现出优秀的综合能力。
摩尔线程积极响应开源社区的号召,旨在让更多开发者基于国产全功能 GPU 进行 AI 应用创新。此前,摩尔线程在深度求索 DeepSeek、通义千问 QwQ-32B 和 Qwen3 等模型的发布当日,就成功实现了 Day-0 支持。
关于腾讯混元-A13B 模型的详细信息,IT之家此前进行了详细报道,感兴趣的朋友可以自行查看。

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-6-30 00:57 , Processed in 0.140401 second(s), 6 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表