数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 66|回复: 1

[科技] 阿里通义千问更新 Qwen3-30B 非思考模型:AI 性能媲美 GPT-4o

[复制链接]
发表于 3 天前 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
阿里通义千问今天(7 月 30 日)在 X 平台发布推文,宣布推出 Qwen3-30B-A3B 非思考模式的更新版本,命名为 Qwen3-30B-A3B-Instruct-2507。
新模型主要提升指令跟随、逻辑推理、文本理解、数学、科学、编程和工具使用等通用能力,官方表示在激活 3B 参数的情况下,性能接近 GPT-4o 和 Qwen3-235B-A22B Non-Thinking。
IT之家援引官方博文内容,Qwen3-30B-A3B-Instruct-2507 模型的参数总量为 305 亿,但激活参数为 33 亿,非嵌入层数量为 299 亿,网络层数为 48 层,专家数为 128 个,激活专家数为 8 个,上下文长度原生支持 262144 个 tokens。
该模型仅支持非思考模式,在输出中不会生成 块。同时,不再需要指定 enable_thinking=False。官方表示新模型大幅增加了多种语言的长尾知识覆盖,且在主观和开放式任务中与用户偏好更加一致,能够提供更有帮助的回答和更高质量的文本生成。
Deepseek-V3-0324GPT-4o-0327Gemini-2.5-Flash 非思考Qwen3-235B-A22B 非思考Qwen3-30B-A3B 非思考Qwen3-30B-A3B-Instruct-2507 知识
MMLU-Pro 81.279.881.175.269.178.4MMLU-Redux90.4 91.390.689.284.189.3GPQA68.466.9 78.362.954.870.4SuperGPQA 57.351.054.648.242.253.4 推理
AIME2546.626.7 61.624.721.661.3HMMT2527.57.9 45.810.012.043.0ZebraLogic83.452.657.937.733.2 90.0LiveBench 2024112566.963.7 69.162.559.469.0 编程
LiveCodeBench v6 (25.02-25.05) 45.235.840.132.929.043.2MultiPL-E82.282.777.779.374.6 83.8Aider-Polyglot55.145.344.0 59.624.435.6 对齐
IFEval82.383.984.383.283.7 84.7Arena-Hard v2*45.661.958.352.024.8 69.0创意写作 v381.684.984.680.468.1 86.0WritingBench74.575.580.577.072.2 85.5代理
BFCL-v364.766.566.1 68.058.665.1TAU1-Retail49.660.3# 65.265.238.359.1TAU1-Airline32.042.8# 48.032.018.040.0TAU2-Retail 71.166.7#64.364.931.657.0TAU2-Airline36.042.0# 42.536.018.038.0TAU2-Telecom 34.029.8#16.924.618.412.3 多语言
MultiIF66.570.469.470.2 70.867.9MMLU-ProX75.876.2 78.373.265.172.0INCLUDE80.182.1 83.875.667.871.9PolyMATH32.225.541.927.023.3 43.1

发表于 3 天前 | 显示全部楼层
GPT-5好像要出了
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-8-2 23:16 , Processed in 0.156001 second(s), 7 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表