|
|
家人们,最近科技圈真是热闹得不要不要的,尤其是硅谷那头的OCP全球峰会(Open Compute Project),简直成了大佬们秀肌肉的T台。这不,存储界的扛把子SK海力士也跑去San Jose蹭了波热度,从10月13日到16日,连着四天在会场里甩出一套“AI存储全家桶”方案,名字起得那叫一个直白——AIN Family(AI-NAND家族)。这可不是随便搞个PPT画饼,人家连产品路线图、技术细节、甚至哪天开宣讲会都给你摆得明明白白。今天咱就掰扯掰扯,这家韩国巨头到底憋了啥大招来应对AI推理市场的“数据海啸”。
先给不熟悉背景的盆友补个课:OCP峰会是个啥?简单说就是科技公司们聚在一起聊怎么用开源技术搞事情,而今年最热的主题绝对是AI。SK海力士的eSSD产品开发负责人Chun Sung Kim在主会场开了个“高管专场”,上来就摊牌:现在AI推理市场膨胀得跟吹气球似的,数据量暴增导致传统NAND存储快扛不住了。所以啦,咱得整点新活,专门给AI时代定制一套解决方案,这就是AIN Family的由来。
AIN家族三大护法,各怀绝技
AIN P(性能怪兽):专治AI推理场景下的“数据便秘”。比如你训练个超大模型,每天产生的数据量堪比一座图书馆,如果存储速度跟不上,整个系统就得卡成PPT。AIN P的解法是从NAND颗粒和控制器下手,重新设计结构,把存储和AI运算之间的瓶颈直接掐断。效果嘛,官方说能同时提升处理速度和能效,预计2026年底前就能拿出样品。说白了,这就是给AI数据修了条高速公路,还是全程绿灯的那种。
AIN D(容量卷王):目标简单粗暴——把存数据的成本打下来!现在主流QLC SSD最多也就TB级,但AI时代动不动就要PB级存储。AIN D的思路是搞个“中间路线”:既保留SSD的速度,又蹭上HDD的便宜大碗。想象一下,以后存AI数据就像用拼多多买仓库,量大管饱还省电,这玩意儿要是成了,云服务商得乐开花。
AIN B(带宽黑科技):这套路有点眼熟——直接把HBM(高带宽内存)的堆叠技术搬到了NAND上。简单说,就是把多个NAND芯片像叠叠乐那样竖着摞起来,用HBF(高带宽互联)技术打通任督二脉,带宽直接翻倍。更骚的是,SK海力士甚至考虑把它和HBM打包放在一起,相当于给系统内存和存储之间架了座立交桥。这波操作明显是冲着LLM(大语言模型)的容量缺口去的,毕竟ChatGPT们越练越胖,普通内存早就不够吃了。
技术生态的“联谊会”
除了产品爆料,SK海力士还搞了场“HBF之夜”派对,合作方是闪迪(Sandisk)。这俩公司在今年8月就签了HBF标准化的备忘录,这次顺便拉上一帮行业架构师和工程师,在OCP会场附近的The Tech Interactive搞了场线下沙龙。现场不仅有韩国内外专家的圆桌讨论,还号召全行业一起卷NAND创新。用互联网黑话说,这就是“共建生态,拒绝内卷”。
SK海力士的开发总裁Ahn Hyun最后放了句狠话:“通过OCP和HBF之夜,咱可是把未来十年的AI存储蓝图摊牌了!”这话听着霸气,但背后逻辑很现实:AI战场光有算力不够,存不起数据全是白搭。从性能、容量到带宽,SK海力士这套“全家桶”几乎把AI存储的痛点全包圆了。至于最终能不能成行业关键玩家?还得看2026年样品出来后的真本事。不过至少现在,他们这波操作已经让隔壁厂商的会议室灯火通明了好几个通宵
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|