日日躁夜夜躁狠狠躁超碰97,无码国内精品久久综合88 ,热re99久久精品国99热,国产萌白酱喷水视频在线播放

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺(tái)電子信息窗口

三星和SK海力士:2026年將量產(chǎn)HBM4,其他選手只能“眼紅”?

2024-05-07 來源:賢集網(wǎng)
2584

關(guān)鍵詞: 三星 SK海力士 存儲(chǔ)芯片

三星電子和 SK 海力士將引進(jìn)先進(jìn)的代工工藝,大規(guī)模生產(chǎn)第六代高帶寬內(nèi)存 (HBM),目標(biāo)是在 2026 年。因此,擁有自己代工業(yè)務(wù)的三星和 SK 之間未來的 HBM 戰(zhàn)爭(zhēng)海力士與世界領(lǐng)先的代工廠臺(tái)積電結(jié)盟,預(yù)計(jì)將取決于代工廠的競(jìng)爭(zhēng)力。

據(jù)業(yè)內(nèi)人士 4 月 29 日消息,三星電子和 SK 海力士計(jì)劃通過將領(lǐng)先的代工工藝融入基礎(chǔ)芯片中,從 2026 年 HBM4(第六代 HBM)開始生產(chǎn)定制 HBM。



HBM 的實(shí)現(xiàn)方法是將核心芯片 DRAM 芯片堆疊在位于封裝底部的稱為基礎(chǔ)芯片的方形框架頂部,然后使用硅通孔 (TSV) 技術(shù)將它們垂直連接?;A(chǔ)芯片連接到圖形處理單元 (GPU) 或 ASIC,控制 HBM 并從每個(gè) DRAM 收集計(jì)算數(shù)據(jù)以傳輸?shù)?GPU。在第五代 HBM3E 之前,基礎(chǔ)芯片的技術(shù)難度已經(jīng)足夠低,可以采用 DRAM 工藝制造。

然而,隨著客戶的人工智能服務(wù)不斷進(jìn)步,對(duì)具有卓越性能和更低功耗的 HBM 的需求不斷增長(zhǎng),因此需要改進(jìn)基礎(chǔ)芯片性能。為了滿足客戶的期望,使基礎(chǔ)模具的功能多樣化需要利用領(lǐng)先的鑄造工藝。

SK海力士最近與臺(tái)積電進(jìn)行技術(shù)合作,也是奪取定制HBM領(lǐng)導(dǎo)地位的戰(zhàn)略一步。盡管SK海力士通過SK海力士System IC和SK海力士Key Foundry這兩家子公司開展代工業(yè)務(wù),但其主要重點(diǎn)還是較舊的8英寸工藝。據(jù)了解,HBM4 基礎(chǔ)芯片的制造工藝低于 5 納米。目前,全球僅有三星電子和臺(tái)積電建立了5納米以下超微細(xì)工藝的量產(chǎn)體系。


三大巨頭結(jié)盟,全球壟斷

4月25日,崔泰源發(fā)布了一張與黃仁勛的合影。

崔泰源在硅谷的Nvidia總部與黃仁勛見面并拍下了這張照片。黃仁勛在崔泰源收到的一本小冊(cè)子上簽名,上面寫著“為了我們的合作,共同創(chuàng)造人工智能和人類的未來”。

外界普遍認(rèn)為,崔泰源與黃仁勛此次會(huì)晤涉及HBM問題。

英偉達(dá)是AI芯片領(lǐng)域的領(lǐng)軍企業(yè),占據(jù)全球AI芯片市場(chǎng)80%的份額。去年,SK海力士成為英偉達(dá)AI專用圖形處理器 (GPU) 所用的第4代 HBM (HBM3) 的獨(dú)家供應(yīng)商,并占據(jù)該市場(chǎng)的頭把交椅。

SK海力士在開發(fā)新型第五代HBM(HBM3E)方面也領(lǐng)先于三星電子。不過,上個(gè)月在美國(guó)加州圣何塞舉行的“GTC 2024”開發(fā)者大會(huì)新聞發(fā)布會(huì)上,黃仁勛透露他們正在測(cè)試三星的HBM,這讓SK海力士感到擔(dān)憂。

第二天,黃仁勛來到三星電子展位,在展示的12層HBM3E上簽名“JENSEN APPROVED”,這進(jìn)一步引發(fā)了猜測(cè)。

雖然“批準(zhǔn)”的具體含義尚未明確,但這被解讀為對(duì)三星HBM產(chǎn)品的期待。

業(yè)內(nèi)人士表示,崔泰源此次來訪可能是為了跟上HBM領(lǐng)域的主要競(jìng)爭(zhēng)對(duì)手三星電子的步伐。SK海力士還計(jì)劃投資900億美元建設(shè)全球最大的超級(jí)晶圓廠,預(yù)計(jì)于2046年竣工。該公司最近還成為韓國(guó)市值第二大公司,僅次于三星。

此前,SK海力士還與全球最大的芯片代工廠臺(tái)積電簽署諒解備忘錄,一起合作打造HBM4芯片,利用臺(tái)積電先進(jìn)的封裝技術(shù)和晶圓代工能力。

根據(jù)4月19日的聲明,SK海力士將利用臺(tái)積電的領(lǐng)先工藝。由于Nvidia也是臺(tái)積電的核心合作伙伴,這次和SK海力士加強(qiáng)合作關(guān)系,這也意味著在AI世界的半導(dǎo)體聯(lián)盟關(guān)系正式確立,形成一個(gè)共同的生態(tài)系統(tǒng)。



HBM4將引領(lǐng)技術(shù)變革

據(jù)悉,自2015年以來,從HBM1到HBM3e各種更新和改進(jìn)中,HBM在所有迭代中都保留了相同的1024位(每個(gè)堆棧)接口,即具有以相對(duì)適中的時(shí)鐘速度運(yùn)行的超寬接口。然而,隨著內(nèi)存?zhèn)鬏斔俾室蟛粩嗵岣撸绕涫窃贒RAM單元的基礎(chǔ)物理原理沒有改變的情況下,這一速度將無法滿足未來AI場(chǎng)景下的數(shù)據(jù)傳輸要求。為此,下一代HBM4需要對(duì)高帶寬內(nèi)存技術(shù)進(jìn)行更實(shí)質(zhì)性的改變,即從更寬的2048位內(nèi)存接口開始。

接口寬度從每堆棧1024位增加到每堆棧2048位,將使得HBM4具備的變革意義。

當(dāng)前,生成式人工智能已經(jīng)成為推動(dòng)DRAM市場(chǎng)增長(zhǎng)的關(guān)鍵因素,與處理器一起處理數(shù)據(jù)的HBM的需求也必將增長(zhǎng)。未來,隨著AI技術(shù)不斷演進(jìn),HBM將成為數(shù)據(jù)中心的標(biāo)準(zhǔn)配置,而以企業(yè)應(yīng)用為重點(diǎn)場(chǎng)景的存儲(chǔ)卡供應(yīng)商期望提供更快的接口。

根據(jù)DigiTimes援引Seoul Economy的消息:下一代HBM4內(nèi)存堆棧將采用2048位內(nèi)存接口。

將接口寬度從每堆棧1024位增加到每堆棧2048位將是HBM內(nèi)存技術(shù)所見過的最大變化。自2015年以來,從HBM1到HBM3e各種更新和改進(jìn)中,HBM在所有迭代中都保留了相同的1024位(每個(gè)堆棧)接口。

采用2048位內(nèi)存接口,理論上也可以使傳輸速度再次翻倍。例如,英偉達(dá)的旗艦Hopper H100 GPU,搭配的六顆HBM3達(dá)到6144-bit位寬。如果內(nèi)存接口翻倍到2048位,英偉達(dá)理論上可以將芯片數(shù)量減半到三個(gè),并獲得相同的性能。

回顧HBM發(fā)展歷史,由于物理限制,使用HBM1的顯卡的內(nèi)存上限為4GB。然而,隨著時(shí)間的推移,SK海力士和三星等HBM制造商已經(jīng)改進(jìn)了HBM的缺點(diǎn)。

HBM2將潛在速度提高了一倍,達(dá)到每個(gè)堆棧256GB/s,最大容量達(dá)到8GB。2018年,HBM2進(jìn)行了一次名為HBM2E的小更新,進(jìn)一步將容量限制提高到24GB,并帶來了另一次速度提升,最終達(dá)到峰值時(shí)的每芯片460GB/s。

當(dāng)HBM3推出時(shí),速度又翻了一番,允許每個(gè)堆棧最大819GB/s。更令人印象深刻的是,容量增加了近三倍,從24GB增加到64GB。和HBM2E一樣,HBM3看到了另一個(gè)中期升級(jí),HBM3E,它將理論速度提高到每堆棧1.2 TB/s。

在此過程中,HBM在消費(fèi)級(jí)顯卡中逐漸被更便宜的GDDR內(nèi)存所取代。HBM越發(fā)成為成為數(shù)據(jù)中心的標(biāo)準(zhǔn)配置,以企業(yè)應(yīng)用為重點(diǎn)場(chǎng)景的存儲(chǔ)卡供應(yīng)商們期望提供更快的接口。


HBM市場(chǎng)測(cè)算:未來三年CAGR超80%

AI刺激服務(wù)器存儲(chǔ)容量擴(kuò)充,HBM需求強(qiáng)勁


AI服務(wù)器刺激更多存儲(chǔ)器用量,大容量?jī)?nèi)存條、HBM、eSSD需求旺盛。根據(jù)Trendforce,目前服務(wù)器 DRAM (模組形態(tài)為常規(guī)內(nèi)存條RDIMM和LRDIMM)的普遍配置約為500?600GB,而AI服務(wù)器在單條 模組上則多采64?128GB,單臺(tái)服務(wù)器搭載16?36條,平均容量可達(dá)1TB以上。對(duì)于企業(yè)級(jí)SSD,由于AI 服務(wù)器追求的速度更高,其要求優(yōu)先滿足DRAM或HBM需求,在SSD的容量提升上則呈現(xiàn)非必要擴(kuò)大容 量的態(tài)勢(shì),但配置也顯著高于常規(guī)服務(wù)器。

隨著算力卡更新迭代,HBM規(guī)格持續(xù)提升。未來在AI模型逐漸復(fù)雜化的趨勢(shì)下,服務(wù)器的數(shù)據(jù)計(jì)算和 存儲(chǔ)需求將快速增長(zhǎng),并同步帶動(dòng)服務(wù)器DRAM、企業(yè)級(jí)SSD以及HBM的需求成長(zhǎng)。相較于一般服務(wù)器 而言,AI服務(wù)器多增加GPGPU的使用,以NVIDIA A100/H100 80GB配置8張計(jì)算,HBM用量約為 640GB,超越常規(guī)服務(wù)器的內(nèi)存條容量,H200、B100、MI300等算力卡將搭載更高容量、更高速率HBM。



2024年HBM市場(chǎng)容量有望接近9億GB

我們測(cè)算了全球算力卡的HBM需求,結(jié)論是:

1、從容量看,2023年HBM市場(chǎng)容量為2.8億GB,預(yù)計(jì)2024年增長(zhǎng)至8.9億GB, 2026年增長(zhǎng)至14.1億GB, 2023?2026 年CAGR為71 %。增長(zhǎng)驅(qū)動(dòng)因素是:算力卡單卡HBM容量提升、算力卡出貨量提升、新的玩 家產(chǎn)品放量。

AI服務(wù)器出貨增速遠(yuǎn)高于傳統(tǒng)服務(wù)器、手機(jī)、PC+NB等傳統(tǒng)市場(chǎng),且單機(jī)DRAM容量增速更快,因此 HBM/全 球DRAM市場(chǎng)的占比將逐步提升,2023年容量占比為1% (2023年大宗DRAM市場(chǎng)容量為275億 GB) , 2026年 將提升至3%。

我們認(rèn)為,目前HBM供應(yīng)鏈以海外廠商為主,部分國(guó)內(nèi)廠商打入了海外存儲(chǔ)/HBM供應(yīng)鏈。國(guó)產(chǎn)HBM 正處于0到1 的突破期,目前HBM供應(yīng)主要為韓系、美系廠商,國(guó)內(nèi)能獲得的HBM資源較少。隨著國(guó)產(chǎn) 算力卡需求快速增長(zhǎng),對(duì)于算力卡性能至關(guān)重要的HBM也有強(qiáng)烈的供應(yīng)保障訴求和國(guó)產(chǎn)化訴求。