NVIDIA發表最強AI晶片 陸行之:賣得好2對手不用玩了

2024年03月19日 14:16

▲▼NVIDIA共同創辦人暨執行長黃仁勳。(圖/記者湯興漢攝)

▲NVIDIA共同創辦人暨執行長黃仁勳。(圖/記者湯興漢攝)

記者高兆麟/綜合報導

NVIDIA今日在GTC大會中發表NVIDIA Blackwell平台,並採用台積電N4P製程打造,對此半導體分析師陸行之除了發表五點看法外,更直言若B200賣得很好,那AMD跟英特爾就不用玩了。

Blackwell架構GPU配備了2080億個電晶體,採用台積電客製化4奈米製程製造,兩倍光罩尺寸GPU裸晶透過10 TB/s的晶片到晶片互連連接成單個、統一GPU。NVIDIA GB200 Grace Blackwell超級晶片透過 900GB/s 超低功耗NVLink晶片到晶片互連技術將兩個 NVIDIA B200 Tensor Core GPU 與NVIDIA Grace CPU連接起來。

陸行之也提出五大看法:

1.Blackwell 100有2080億電晶體,比Hopper 100的800億電晶體多1280億電晶體。

2.B100跟H100相同,都是用台積電4nm,但是把兩個晶片用封裝結合,不是用微縮來加倍運算速度。

3.GB200 Superchip 把2顆B100及72顆ARM Neoverse V2 CPU cores一起包起來,如果賣的好,Intel/AMD 的AI server CPU就不用玩了。

4.不懂為何兩顆B100(192+192=384HBM3e)+一顆 Grace CPU 的GB200 Superchip怎麼 HBM3e突然暴增到864GB?理論上CPU應該配LPDDR,但Nvidia說兩組GB200有1.7TB HBM3e,是不是做ppt的小朋友搞錯了哈。

5.要建立32000顆 B100 GPU 的AI datacenter,能提供645 exaFLOPS 的AI performance,大概要花12億美元在B100 GPU上,3億美元系統,3-5億ARM CPU,還要近890顆的NVlink switch晶片,也是用台積電4nm來製造,感覺20億美元以上跑不掉。

分享給朋友:

讀者迴響