数码之家

 找回密码
 立即注册
搜索
查看: 634|回复: 0

[产品] AMD发布深度求索模型运行指南 全系硬件AI推理能力全面曝光

[复制链接]
发表于 2025-1-29 23:52:39 | 显示全部楼层 |阅读模式
本帖最后由 Meise 于 2025-1-29 23:57 编辑

TOP2 1月29日消息:AMD今日正式公布深度求索R1蒸馏推理模型在Radeon显卡与Ryzen AI处理器上的运行方案。技术文档显示,新一代Ryzen AI Max "Strix Halo"处理器将原生搭载LPCAMM2内存,提供32GB/64GB/128GB三种固定配置,取消16GB选项以规避厂商缩水可能。其中64GB与128GB机型可本地运行700亿参数的DeepSeek-R1-Distill-Llama模型,32GB版本适配320亿参数的Qwen-32B模型。

移动端Ryzen AI "Strix Point"处理器凭借RDNA 3.5核显与NPU组合,可支持140亿参数的Qwen-14B与Llama-14B模型运行。前代Phoenix Point与Hawk Point平台仍具备执行Llama-14B模型的能力。全系列建议采用Q4_KM量化方案以实现最优性能。

在独立显卡领域,基于RDNA3架构的RX 7000系列成为推荐平台。旗舰型号RX 7900 XTX适配Qwen-32B模型,配备12-20GB显存的7600XT/7700XT/7800XT/7900GRE/7900XT可运行Qwen-14B,主流级RX 7600受限于8GB显存仅支持Llama-8B。运行环境需配合LM Studio 0.3.8及Adrenalin 25.1.1 Beta驱动。

官方性能测试数据显示,RX 7900 XTX在Qwen-7B模型推理中较RTX 4080 SUPER快34%,Llama-8B与Qwen-14B分别领先27%和22%。面对RTX 4090时,AMD显卡在四分之三测试场景中保持优势:Qwen-7B快13%、Llama-8B快11%、Qwen-14B微超2%,仅在Qwen-32B大模型推理中以4%差距暂居次席。


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-2 10:57 , Processed in 0.109200 second(s), 8 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表