|
|
各位盯着AI前沿、对硬科技创业和英伟达霸主地位特别好奇的网友们,赶紧来听个新鲜热乎的!就在这周四(2月19日),AI芯片圈子里又冒出一个新的“挑战者”,而且口气不小,直接说要造出比现在通用方法更快、更便宜的芯片来跑AI。这家公司叫Taalas,名字你可能没听过,但它刚刚搞到的钱,数目可一点也不小——1.69亿美元!
这消息是路透社爆出来的,源头就是这家公司自己发的公告。他们说在这周四(也就是2月19日当天)正式宣布完成了这轮融资,现在手里总共握着2.19亿美元的资金,投资人名单里包括Quiet Capital、富达投资(Fidelity)还有芯片业的老牌风险投资家皮埃尔·拉蒙德(Pierre Lamond)。看得出来,资本市场的真金白银已经用脚投票,押注这哥们儿不是来闹着玩的。
Taalas这时候跳出来,时机选得也挺有意思。就在几个星期前,芯片圈刚发生一件大事:行业老大英伟达(Nvidia)花了200亿美元的天价,去授权另一家初创公司Groq的知识产权。这一下子就把大家的眼光,又重新拉回到了那些专注于“AI推理”特定环节的初创公司和技术路线上。
啥是“AI推理”呢?简单说,就是你问ChatGPT一个问题,它吭哧吭哧给你生成答案的那个过程。现在绝大部分AI应用,不管是聊天机器人还是图像生成,最后都要落到这个“推理”环节。而市面上主流的做法,都是用英伟达的GPU这种通用计算芯片来跑,虽然啥都能干,但可能不是最高效、最省钱的方案。
Taalas的路子就野多了。他们不打算做另一个“小英伟达”,而是玩起了“超级定制化”。他们的核心黑科技,是能把AI模型的一部分,直接“印刷”到硅片芯片上。你可以想象一下,这不是造一个万能的瑞士军刀,而是为每一个特定的AI模型,量身打造一件专用的、极其合身的“硅片盔甲”。
具体是怎么“印”的呢?根据Taalas的CEO柳比沙·巴伊奇(Ljubisa Bajic)接受路透社采访时的说法,他们的芯片大概有100层结构。他们会先让代工厂(用的是台积电TSMC)把芯片做到接近完成的状态,最后只在两层金属层上进行定制化操作。这就好比盖一栋楼,主体结构和管道都预先铺好了,最后根据住户(AI模型)的具体需求,快速改装最后两层的内饰和电路。巴伊奇说,台积电为他们定制一个针对特定模型的芯片,大概需要两个月的制造时间。这个速度,相比从头设计制造一个全新的通用AI处理器(比如英伟达的Blackwell芯片,制造周期据说要六个月左右),那可快了不少。
光定制化还不够快,还得配上“快腿”。Taalas的芯片设计里,塞进了大量的静态随机存取存储器(SRAM)。这种内存就在芯片内部,速度快得飞起,但缺点就是贵、而且面积大。这种“用昂贵但极快的SRAM当主内存”的思路,跟之前提到的Groq,以及另一家明星初创公司Cerebras(这家公司今年1月刚和OpenAI签了云计算协议)很像。大家不约而同都这么干,说明在追求极致的推理速度时,这很可能是一条被验证有效的技术路径。
CEO巴伊奇很直白地解释了他们的优势:“这种硬连接的设计,部分原因正是我们速度的来源。” 因为模型的一部分电路被直接固化在硅片上了,指令执行路径大大缩短,不用像通用芯片那样绕来绕去,自然就跑得更快、能耗也更低。
那么,他们现在做到什么程度了呢?根据公司的说法,他们现在已经能够制造出可以运行一些不那么复杂模型的芯片了。而更野心勃勃的计划是,要在今年年底之前,造出一款能够部署像GPT-5.2这种尖端前沿大模型的处理器。这个目标要是真能实现,那可就真是扔向AI算力市场的一颗重磅炸弹了。
当然,这条路也布满了荆棘。定制化芯片虽然效率高,但灵活性就差。你今天为Llama 3.1定制的芯片,明年Llama 4.0出来了,可能就得重做。这就像你为参加100米短跑打造了一双完美的钉鞋,结果突然通知你去跑马拉松,鞋就不对劲了。此外,如何构建自己的软件生态,让开发者愿意为你的专用芯片重新优化模型,这也是所有挑战英伟达的初创公司必须面对的“高山”。
所以,Taalas这1.69亿美元融资的故事,背后远不止是一家公司那么简单。它更像是当前AI算力竞赛进入“深水区”的一个缩影:当通用芯片的 scaling law(缩放定律)越来越难,成本越来越高,会不会有越来越多的玩家,开始转而追求这种“为特定任务量身定做”的极端效率之路?这条路能走多远,能不能真的撼动英伟达用CUDA生态筑起的“护城河”?今年年底,等他们号称能跑GPT-5.2的芯片出来,或许我们就能看到更清晰的答案了。到时候,是成为又一个挑战巨人成功的“屠龙勇士”,还是仅仅在AI芯片漫长的演化史上留下一个有趣的注脚,咱们拭目以待。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|