英偉達(dá)展示全新一代Rubin架構(gòu),AI芯片仍舊是技術(shù)“高地”
英偉達(dá)(NVIDIA)執(zhí)行長黃仁勛在Keynote主題演講中展示了全新一代的Rubin架構(gòu),顯示其正在加速全新架構(gòu)的推出腳步。
黃仁勛表示,Blackwell的下一代架構(gòu)將是Rubin架構(gòu),且Rubin GPU將采用8顆HBM4,而Rubin Ultra GPU將采用12顆HBM4。
據(jù)悉,這個新的架構(gòu)架構(gòu)以美國天文學(xué)家Vera Rubin命名,她在理解宇宙中的暗物質(zhì)方面做出了重大貢獻(xiàn),并在銀河系旋轉(zhuǎn)率方面做了開創(chuàng)性的工作。
值得一提的是,盡管英偉達(dá)才剛推出了新的Blackwell平臺,但看起來英偉達(dá)正在加速其路線圖。根據(jù)黃仁勛最新公布的信息,Rubin GPU將成為R系列產(chǎn)品的一部分,預(yù)計將在2025年第四季度量產(chǎn)。Rubin GPU及其相應(yīng)平臺預(yù)期將在2026年推出,隨后在2027年推出Ultra版本。英偉達(dá)還確認(rèn)Rubin GPU將使用HBM4存儲器。
根據(jù)外媒wccftech的消息,英偉達(dá)的Rubin GPU將采用4x光罩設(shè)計,并將使用臺積電的CoWoS-L封裝技術(shù),并采用N3制程。此外,英偉達(dá)將使用下一代HBM4 DRAM來為其Rubin GPU提供動力,目前英偉達(dá)在其B100 GPU中使用最快的HBM3E存儲器,并預(yù)計在2025年底當(dāng)HBM4存儲器解決方案大幅量產(chǎn)時,用HBM4版本來更新這些芯片。
GB200供應(yīng)鏈已啟動,預(yù)計將催生相應(yīng)增量市場
英偉達(dá)Q1營收260億美元,同比增長262%;凈利潤148.1億美元,同比上升628%,均超預(yù)期。英偉達(dá)CEO黃仁勛表示,預(yù)計今年Blackwell架構(gòu)芯片將帶來大量收入;Blackwell架構(gòu)芯片(B200/GB200)將于二季度發(fā)貨,并將于三季度增產(chǎn)
GB200供應(yīng)鏈已啟動,預(yù)計2025年的訂單和供應(yīng)鏈配置將在未來幾個月中得到最終確認(rèn)。根據(jù)摩根士丹利預(yù)測,基于CoWoS(先進封裝技術(shù)的一種)的產(chǎn)能分配,2024年下半年預(yù)計將有42萬顆GB200超級芯片交付至下游市場,2025年預(yù)計產(chǎn)量為150萬~200萬顆。
GB200的研發(fā)過程對封裝和測試環(huán)節(jié)提出新要求,預(yù)計將催生相應(yīng)增量市場。英偉達(dá)的目標(biāo)是在當(dāng)前光刻技術(shù)的芯片尺寸極限上來實現(xiàn)計算速度的極限,而不是通過減小芯片尺寸和使用芯片組來提高產(chǎn)量。GB200的高性能設(shè)計需要更先進的測試設(shè)備和技術(shù)來檢測潛在的缺陷,確保每一個芯片的高可靠性。芯片尺寸的加大會導(dǎo)致芯片的合格率下降,進而促進對半導(dǎo)體測試的需求增長。隨著HBM速度和容量的提升,內(nèi)存測試器、探針卡和探測器的需求將會上升,將推動芯片級測試的更廣泛應(yīng)用。
Blackwell即將迎來放量
黃仁勛強調(diào),英偉達(dá)也將加快其他所有芯片的更新速度,以匹配這一節(jié)奏。“我們將以非??斓乃俣韧七M所有產(chǎn)品線?!薄靶碌?CPU、新的 GPU、新的網(wǎng)絡(luò)網(wǎng)卡、新的交換機…… 即將迎來大量芯片新品?!?/span>
在近日的財報電話會議上,當(dāng)被詢問有關(guān)最新款 Blackwell GPU 如何在上一代 Hopper GPU 仍暢銷的情況下快速放量的問題時,黃仁勛解釋說,英偉達(dá)新一代人工智能 GPU 在電氣和機械方面都可實現(xiàn)向下兼容,并且可以運行相同的軟件。他表示,客戶在現(xiàn)有數(shù)據(jù)中心可以“輕松地從 H100 過渡到 H200,再過渡到 B100”。
為了解釋對英偉達(dá)人工智能 GPU 的巨額需求,黃仁勛還在電話會議中分享了一些銷售觀點:
在我們過渡到 H200 和 Blackwell 的過程中,預(yù)計將迎來一段供不應(yīng)求的時間。所有人都想要盡快讓他們的基礎(chǔ)設(shè)施上線運行,理由是這些產(chǎn)品可以幫助他們更好地節(jié)省成本并創(chuàng)造利潤,所以他們都希望盡早實現(xiàn)這一點。
他還風(fēng)趣地引用了“錯失良機” (FOMO) 效應(yīng)來佐證他的觀點:
下一個率先登頂下一座重要高峰的公司將能夠發(fā)布開創(chuàng)性的 AI 產(chǎn)品,而緊隨其后的公司只能發(fā)布一些性能提升 0.3% 的產(chǎn)品。你是想成為引領(lǐng)人工智能革命的公司,還是只想帶來一些微小改進的公司呢?
英偉達(dá)首席財務(wù)官還強調(diào)汽車行業(yè)將成為其“數(shù)據(jù)中心領(lǐng)域今年內(nèi)最大的企業(yè)細(xì)分市場”,并透露特斯拉已經(jīng)購買了 35000 枚 H100 GPU 用于訓(xùn)練其 FSD 系統(tǒng),同時像 Meta 這樣的“消費者互聯(lián)網(wǎng)公司”也將繼續(xù)保持“強勁的增長勢頭”。
英偉達(dá)表示,一些客戶已經(jīng)購買或計劃購買超過 10 萬枚英偉達(dá)的 H100 GPU – Meta 計劃到年底在其運營系統(tǒng)中部署超過 35 萬枚。
AMD緊跟英偉達(dá)步伐
6月3日,AMD董事長兼CEO蘇姿豐在Computex 2024展會的開幕主題演講中,公布了全新云端AI加速芯片路線圖,今年將會推出全新Instinct MI325X。
根據(jù)AMD公布的全新云端AI加速芯片路線圖顯示,AMD今年將會推出全新的AI加速芯片Instinct MI325X,2025年推出MI350,2026年推出MI400。
據(jù)介紹,MI325X將延續(xù)CDNA3構(gòu)架,采用第四代高帶寬內(nèi)存(HBM) HBM3E,容量大幅提升至288GB,內(nèi)存帶寬也將提升至6TB/s,整體的性能將進一步提升,其他方面的規(guī)格則基本保持與MI300X一致,便于客戶的產(chǎn)品升級過渡。
蘇姿豐指出,MI325X的AI性能提升幅度為AMD史上最大,相較競品英偉達(dá)H200將有1.3倍以上的提升,同時更有性價比優(yōu)勢,MI325X將于今年第四季度開始供貨。
另外,AMD還將在2025年推出新一代的MI350系列,該系列芯片將采用3nm制程,基于全新的構(gòu)架,集成288GB HBM3E內(nèi)存,并支持FP4/FP6數(shù)據(jù)格式,推理運算速度較現(xiàn)有MI300系列芯片快35倍。
據(jù)供應(yīng)鏈信息透露,MI350將進入液冷世代,為AI服務(wù)器運算提供更強的算力、更佳的能源效率。
2026年,AMD還將會推出新一代的MI400系列,保持一年一更新的節(jié)奏。
