|
【2025年4月30日 美国圣克拉拉电】在刚刚闭幕的CXL技术大会DevCon 2025上,高速互连技术厂商XConn Technologies展示了让科技圈眼前一亮的"内存魔术"——通过与AMD深度合作,双方基于计算快速链路(CXL)技术实现了动态内存的实时调配。这项突破意味着,未来数据中心的内存资源可以像"活水"一样在不同设备间智能流动。
这场被称为"内存管理革命"的演示,依托XConn最新研发的Apollo XC50256交换机完成。这块全球首个兼容CXL 2.0和PCIe 5.0标准的芯片,成功将AMD第五代EPYC处理器、GPU和加速器的内存空间打造成了共享资源池。想象一下,当AI模型需要更多缓存时,系统能瞬间调用闲置内存;当虚拟机需要扩展时,不再需要预留冗余空间——这种灵活度正是当今AI训练、高性能计算最渴求的特性。
据XConn产品高级副总裁JP江现场介绍,传统数据中心的固定内存配置常导致两种窘境:部分服务器饿着肚子跑任务,另一些却让内存躺着睡大觉。通过CXL交换技术,企业不仅能把内存利用率拉满,还能把总体持有成本削掉一大块。"我们给每台机器装上了内存调配器,让TB级资源随用随取,这事以前只能在软件层面幻想。"这位技术负责人拿着真机演示板比划道。
AMD数据中心生态系统副总裁Raghu Nambiar在现场点赞时透露,他们在EPYC处理器里植入了CXL技术基因。两强联手的这套方案,已能实现接近本地内存的访问延迟,能够满足AI推理缓存、内存数据库等严苛场景的需求。展会观众围着演示台啧啧称奇——只见系统后台内存占用条像心电图般实时跳动,任务优先级高的应用瞬间就能抢到更多资源。
据悉,Apollo XC50256的工程样品已开放申请,想要尝鲜的厂商现在就能联系XConn官网。这次技术突破不仅刷新了内存管理的想象力,更为即将爆发的AI 2.0时代铺好了高速公路。当被媒体问到商用时间表时,展台工程师神秘一笑:"很多云服务商已经在实验室搭积木了。"
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|