|
本帖最后由 Meise 于 2025-1-29 23:57 编辑
TOP2 1月29日消息:AMD今日正式公布深度求索R1蒸馏推理模型在Radeon显卡与Ryzen AI处理器上的运行方案。技术文档显示,新一代Ryzen AI Max "Strix Halo"处理器将原生搭载LPCAMM2内存,提供32GB/64GB/128GB三种固定配置,取消16GB选项以规避厂商缩水可能。其中64GB与128GB机型可本地运行700亿参数的DeepSeek-R1-Distill-Llama模型,32GB版本适配320亿参数的Qwen-32B模型。
移动端Ryzen AI "Strix Point"处理器凭借RDNA 3.5核显与NPU组合,可支持140亿参数的Qwen-14B与Llama-14B模型运行。前代Phoenix Point与Hawk Point平台仍具备执行Llama-14B模型的能力。全系列建议采用Q4_KM量化方案以实现最优性能。
在独立显卡领域,基于RDNA3架构的RX 7000系列成为推荐平台。旗舰型号RX 7900 XTX适配Qwen-32B模型,配备12-20GB显存的7600XT/7700XT/7800XT/7900GRE/7900XT可运行Qwen-14B,主流级RX 7600受限于8GB显存仅支持Llama-8B。运行环境需配合LM Studio 0.3.8及Adrenalin 25.1.1 Beta驱动。
官方性能测试数据显示,RX 7900 XTX在Qwen-7B模型推理中较RTX 4080 SUPER快34%,Llama-8B与Qwen-14B分别领先27%和22%。面对RTX 4090时,AMD显卡在四分之三测试场景中保持优势:Qwen-7B快13%、Llama-8B快11%、Qwen-14B微超2%,仅在Qwen-32B大模型推理中以4%差距暂居次席。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|