|
伙计们,今天科技圈有个大动静,感觉不说都对不起我这蹭热点的网速。您猜怎么着?老牌巨头思科,对,就是那个搞网络设备感觉有点“传统”的思科,冷不丁扔出来个新玩意儿——Cisco 8223路由器。这可不是一般的换代产品,它揣着一颗自称是业界首颗51.2 Tbps(太比特每秒)规格的自研芯片P200,直接喊话要搞定AI时代最头疼的数据中心“拉远”互联问题。现在AI模型训练动不动就需要横跨好几个数据中心,数据跑起来那叫一个奔放,传统网络设备都快被干趴了。思科这回看来是瞅准了痛点,要给AI数据修一条超级高速公路。咱今天就好好掰扯掰扯,这8223到底有啥本事,能不能真给行业带来点新气象。
这事儿得从根儿上捋捋。 现在AI这火越烧越旺,各大厂都在拼命堆算力。可问题来了,一个数据中心的电力和空间总有天花板吧?塞不下更多服务器了,咋整?那就得把AI计算任务分散到不同地方的数据中心,让它们协同工作,这就是行业里常说的“Scale-across”(跨数据中心扩展)。但这就好比把一个大工厂的生产线拆到几个分厂,之间物流(也就是数据流)必须超级顺畅,不能堵车,更不能丢件。现有的网络连接,经常在这种跨数据中心的巨量数据(特别是AI训练那种突发性极强的流量)面前力不从心,结果就是算力等数据,电费哗哗流,效率却上不去,纯纯浪费资源。
思科这回推出的8223路由器,就是冲着这个“跨厂物流”难题去的。它最唬人的参数就是那个51.2 Tbps的总带宽,号称是业界首个达到这个量级的固定配置路由器。啥概念?相当于给数据提供了双向200车道起步的超级高速公路,而且它能提供64个800G速率的口子,处理能力据说每秒能超过200亿个数据包。思科的一位高管马丁·伦德说了,AI计算规模膨胀得太快,单个数据中心已经罩不住了,必须可靠又安全地把几百公里外的数据中心连起来,这8223就是他们的解决方案。
这机器的心脏是思科自研的Silicon One P200芯片。思科搞自研芯片也不是一天两天了,这个P200算是新一代产品。它有个挺关键的特性叫“深缓冲”,你可以理解成给数据通路配了一个超级大的临时停车场。AI工作负载经常是“一阵一阵”的,流量会突然暴增。这个深缓冲就能把这些突发流量先“兜住”,慢慢消化,避免网络因为瞬间压力过大而卡顿或丢包,保证了AI训练任务的稳定性和效率,不然训练到一半卡住了,那真是前功尽弃。
思科给8223总结了几大卖点:省电、能扩、聪明、安全。
省电方面:思科说这货是同类里能效最高的,虽然是个3RU高的机箱,但做到了交换机级别的功耗控制,对于现在恨不得一度电掰成两瓣花的数据中心来说,这吸引力不小。
扩展性:除了刚才说的超高带宽和端口密度,它还支持传输距离能到1000公里的800G相干光模块,意味着不仅数据中心之间能连,同城甚至区域范围内的网络(城域应用)也能覆盖。
智能化:得益于P200芯片的可编程性,8223能比较灵活地适应实时网络状况,未来要支持新的网络协议或标准,可能通过软件升级就行,不用动不动就换硬件,这能省下不少成本和折腾。
安全:思科把安全防护做到了硬件、软件和整个网络层面,比如用了能抵抗未来量子计算攻击的加密算法,并且能无缝接入自家的监控平台,让运维人员能看得更清楚,问题发现和解决更快。
除了硬件本身,思科也强调了部署的灵活性。AI的需求一天一个样,基础设施也得能跟着变。8223一开始会支持开源的SONiC网络操作系统,后面还会上思科自家的IOS XR系统。而且,这颗P200芯片不光用在8223这种固定盒子里,未来也能用在模块化平台和分解式机箱里,让不同规模的网络都能用上同一套技术架构。思科旗下的Nexus产品线很快也会有基于P200、运行NX-OS的系统。这就给了客户更多选择权。
行业里几个大用户也出来站台了,说明思科这东西不是闭门造车。
微软Azure的网络负责人说,云和AI的规模越来越大,需要更快、缓冲能力更强的网络。他们早就用了思科的Silicon One芯片,通用的芯片架构让他们能比较容易地把技术从数据中心扩展到广域网和AI/ML环境。
阿里云的哥们说得更具体,他们正在大力建设云基础设施,数据中心互联是关键。他们认为P200这个51.2T的芯片(业界首款),高带宽、低功耗还全可编程,正好契合他们eCore架构的演进。他们打算用P200做基础模块来扩展eCore,甚至想用一群P200设备取代传统的机箱式核心路由器,提升网络稳定性、可靠性和扩展性。另外,他们也在用思科另一款芯片G200探索新的分解式架构用于高性能数据中心网络。
Lumen(一家通信服务提供商)也表示在关注8223,看看怎么能用它提升网络性能,给客户提供更好的服务。
还有行业分析师指出,AI工作负载正把传统数据中心逼到极限,很多数据中心为了用电便宜都搬到偏远地方了,这就更需要超可靠、高带宽的互联,思科8223的出现正当时。
思科这回出手,看似是发布了一款硬件,实际上是在为AI时代的数据流动定规矩呢。当算力开始“分布式”部署,连接这些算力中心的网络就变成了真正的生命线。8223和P200芯片组合,能不能真的“未来证明”AI基础设施,还得看实际应用和大规模部署后的表现。但毫无疑问,这场关于AI底层能力的竞赛,已经烧到了网络领域,好戏还在后头。对于咱们看客来说,科技巨头们在底层设施上的这种投入,最终都会影响到上层应用的体验和可能性,默默吃瓜的同时,也不妨期待一下更强大AI应用能带来些什么新花样。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|