【原创】全球最大AI芯片?我看噱头大于实际价值

winniewei 提交于 周三, 08/21/2019
【原创】全球最大AI芯片?我看噱头大于实际价值

作者:张国斌

(张国斌发自硅谷)昨天Cerebras公司发布了号称全球最大的AI芯片WSE(Wafer Scale Engine),总计1.2万亿个晶体管,核心面积超过46225mm2,集成了40万个核心以及18GB SRAM缓存,带宽超过100Pb/s。

12345

这个芯片真够大的,就晶体管数量而言,是NVIDIA用于AI加速的GV100的60倍,面积则是它的56倍多。与CPU相比,其晶体管数量是AMD的64核EPYC二代处理器的40倍,尺寸是其10倍!

WSE芯片采用了台积电的16nm工艺生产,集成了40万个AI运算核心,配备了18GB SRAM缓存,同时带宽达到了100Pb/s。要知道通常的计算芯片SRAM缓存也不过几百兆,带宽也就Tb/ss级别,比如AMD的EPYC二代处理器L1/L2/L3缓存加起来不超过300MB,PCIe 4。0总线带宽不过128GB/s,NVIDIA的NVLink 2。0最大带宽也不过300GB/。s,算下来也就是2。4Tb/s,WSE的内部带宽是现有水平的3。3万倍之多!

如此超强性能的AI芯片确实让人震惊,今天在赛灵思公司举办的硅谷晚宴上,很多分析师和媒体也在谈论这个芯片。

6

不过老张认为这个芯片的噱头意义大于实际价值,主要是基于这几点判断

1、看到捧着的跟晶圆大小的芯片我就乐了,如此巨大的裸片如果要封装不知道实际芯片要多大?这要多大的PCB板才可以支持这样的芯片?一个机柜就插入这一个芯片?裸片都是215毫米大小啊。

7

2、这样的芯片散热是非常大的问题,如此大的芯片,20万的AI芯片要跑起来那个功耗可不是一般的大 ,需要什么样的散热?据说,Cerebras在芯片上方安装了一块“冷却板”,使用多个垂直安装的水管直接冷却芯片。由于芯片太大而无法放入任何传统封装中,Cerebras还设计了结合了连接PCB和晶圆两者的定制连接器以及冷却装置。但是我看这样的散热也是有隐患的。

8

3、不知道Cerebras有没考虑这个大芯片在工作时候因为散热引发的应力问题?到时很容易导致芯片故障。

4、还有这样的芯片要工作需要多少外围电源管理模块来供电?大电流情况下的板级设计可靠吗? 估计机柜都得配这样的大电缆了

9

5、这颗芯片号称瞄信号处理、天气预报、制药等领域的人工智能训练,确实在AI训练领域,需要一些新公司加入,不至于让NV吃独食,关键是需要这样简单粗暴的方式抢夺市场吗?

以史为鉴: 单纯追求“大”而不考虑实际情况的悲剧

1

第二次世界大战时期,日本海军曾建造了两艘世界最大的战列舰--“大和号”及姊妹舰“武藏号”,大和号建成时,搭载3座3联装94式45倍径460毫米口径主炮,标准排水量65,000吨,试航排水量69,100吨,满载排水量72,808吨,而当时盟军最大的列克星敦级航空母舰满载排水量才43400吨;大和级战列舰的主炮口径达到460毫米,是世界海军列装舰炮的最大口径。注意,由于战列舰已淘汰,这个最大排水量和舰炮口径记录已是终极世界记录。“大和号”和“武藏号”的结局惊人地相似,相继被美国海军航母“复仇者”舰载机群狂轰滥炸打入海底。其中大和号出动才一天就被航母舰载机击沉。而击沉它的是吨位和火炮都不及它的航母。

所以,以史为鉴,要实现高性能AI训练芯片,可以有很多其他方法比如分布式、云等等,以这样简单堆叠的方式虽然号称实现了高性能但是如何真正应用起来实现其价值?因此老张认为它的噱头意义大于实际价值,这并不是我一人看法,一些分析师也有类似看法,认为该芯片难以商用。

Cerebras Systems 公司位于加州洛思阿图斯,公司的联合创始人及CEO Andrew Feldman此前曾创立服务器芯片公司SeaMicro,后者在2012年被AMD以3亿3400万美元买下,而此前在这里工作的四位同事Michael James、 Sean Lie,、Jean-Philippe Fricker、Gary Lauterbach与Feldman共同创立了Cerebras。目前,这家公司已经完成了1.2亿美元融资,而PitchBook对其估值8.6亿美元。

这个大新闻发表后,公司网站都是各大媒体的报道,从提升眼球来看,该公司的这套操作确实有效。

1

但是,后续应用呢?何时量产?

可能,这样做也已经实现了某些目标了吧,大家懂的。

注:本文为原创文章,转载请注明作者及来源

相关文章

Digi-Key