沒有計算力一切都白談!英偉達正在“通吃”AI軟件和硬件市場
高性能GPU 79%的市占率,讓市場對英偉達的記憶停留在最強大的GPU供應商上,忽略了它強大的軟件能力和布局。
當全世界都在為算力焦慮時,英偉達在GTC大會上給出了解決方案。
英偉達CEO黃仁勛推出了算力平臺DGX Cloud,基于這個云平臺,用戶可以通過網(wǎng)頁瀏覽器直接調(diào)用算力,就像點開百度搜索界面一樣方便。而DGX超級計算機則是Open AI采用的算力引擎。這項云服務目前已經(jīng)和甲骨文達成合作,微軟AWS也即將加入托管。黃仁勛表示,未來中國也可以采用這項服務,中國創(chuàng)業(yè)公司可以期待阿里、百度、騰訊提供的底層算力服務。
解決了算力問題,黃仁勛又給出了模型的解決方案。
面向那些沒有大模型研發(fā)能力,又需要行業(yè)專屬模型的公司,英偉達推出了NVIDIA AI Foundations,內(nèi)置了語言模型NEMO、視覺模型PICASSO和生物學模型BIONEMO三種模型,企業(yè)可以將行業(yè)算法加入其中,生成專屬于自己的大模型。在硬件上,英偉達新推出了適合大模型需求的雙 GPU產(chǎn)品 H100 NVL,希望更進一步為客戶提供算力服務。
AI技術(shù)是智慧未來的基礎
隨著大數(shù)據(jù)、云計算和物聯(lián)網(wǎng)等技術(shù)不斷發(fā)展,AI技術(shù)逐漸成為新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量。正如近些年大熱的元宇宙、前不久的熱搜“??汀盋hatGPT,火熱的背后都離不開AI技術(shù)的支撐。
數(shù)字時代下,AI技術(shù)具備著廣闊的應用前景,在醫(yī)療、教育、金融、農(nóng)業(yè)、通信等諸多領域都發(fā)揮著不可替代的作用。以AI技術(shù)賦能智能家居為例,AI技術(shù)可以幫助智能家居系統(tǒng)更好地實現(xiàn)自動化控制,從而讓家庭成員更加便捷、舒適地生活;再看AI技術(shù)加持下的智能工廠,AI貫穿智能設計、智能產(chǎn)品、智能生產(chǎn)、智能決策等制造全流程,降本增效,讓工廠煥發(fā)新生……
可見,AI技術(shù)是智慧未來的基礎,只有抓住了AI技術(shù),才能使科技更好地賦能千行百業(yè)。
AI發(fā)展需“軟件”,更需“硬件”。
AI大模型的訓練,算力支撐不可或缺。據(jù)《經(jīng)濟日報》報道,自2016年以來,我國人工智能產(chǎn)業(yè)規(guī)模呈現(xiàn)迅猛增長態(tài)勢,但2019年我國智能投融資出現(xiàn)大幅度下跌。而造成這個現(xiàn)象的主要原因是缺乏支撐人工智能產(chǎn)業(yè)快速發(fā)展的技術(shù)突破。因此,如何讓軟硬件供需平衡是當下棘手的課題。
提供算力云平臺,讓高性能算力不再稀缺
算力是當下最搶手的資源。
除了少數(shù)云服務廠商和巨頭,大模型企業(yè)很少有自建設算力中心的能力。大模型具有改變各行各業(yè)的能力,自GPT 3.5以來,谷歌、百度等公司紛紛推出大模型產(chǎn)品,摩肩接踵的發(fā)布會日期宣示著,大模型混戰(zhàn)已然開始。作為Open AI背后的算力支柱,也是目前市面上性能最高、性價比最強的已量產(chǎn)產(chǎn)品,A100成為市面上最搶手的芯片。
一時之間,擁有A100芯片的數(shù)量,成為行業(yè)判斷企業(yè)大模型能力的重要指標。
一位行業(yè)人士告訴36氪 ,國內(nèi)某大模型公司拿到新一輪融資后,就趕緊通過私人渠道買了500塊A100芯片。
面對如此緊缺的算力需求,英偉達推出了一項新的AI超級計算服務——DGX Cloud云服務。
DGX Cloud背后是DGX(AI超級計算機)的算力能力,通過這個平臺,企業(yè)無需購買硬件,可以通過網(wǎng)頁瀏覽的方式獲取高性能算力,擴展多節(jié)點的AI訓練。DGX配有8個H100 GPU或A100 80GB Tensor Core GPU,每個節(jié)點共有640GB GPU內(nèi)存。這8個模組具有很好的通信能力,能更好地傳輸數(shù)據(jù)。它配有Transformer引擎,可以處理類似ChatGPT的大模型。
此外,DGX還提供了NVIDIA AI Enterprise 套件,帶有AI 解決方案工作流程,可以幫助企業(yè)優(yōu)化框架設計和預訓練模型,提高工程師的生產(chǎn)效率。
企業(yè)可以通過月租的方式獲取算力,每月租金36999美元??梢哉f,DGX Cloud云平臺降低了用戶使用算力的門檻。在部署方式上,DGX支持公有云、私有云和混合云的部署方式。在混合版本,客戶在使用自己私有云算力的同時,接入DGX Cloud龐大的算力資源能力。英偉達的DGX官網(wǎng)界面已對外開放。
黃仁勛表示, NVIDIA DGX H100 AI超級計算機已全部全面投入生產(chǎn),很快將面向全球企業(yè)。
目前,英偉達已經(jīng)和微軟Azure、谷歌云和Oracle OCI合作,向用戶提供算力能力,使用戶能通過瀏覽器就擁有英偉達DGXAI超級計算機的能力。
ChatGPT專用芯片性能再升級
在硬件領域,英偉達也推出了新的產(chǎn)品。
黃仁勛隆重推出了一種新的雙 GPU產(chǎn)品 H100 NVL。它加載了Transformer引擎,很適合ChatGPT 等大型 LLM。
常規(guī)顯卡的數(shù)據(jù)已經(jīng)無法支撐大模型的數(shù)據(jù)量需求,H100 NVL單卡顯存容量為94GB,最高可提供188GB HBM3 顯存。
與HGX A100相比,搭載四對H100和雙NVLINK后,服務器的處理速度可以快10倍,且大模型的處理成本降低一個數(shù)量級。
此外,面向視頻信息,英偉達推出了用于 AI 視頻的 NVIDIA L40,能提供比 CPU 高 120 倍的 AI 視頻性能,能夠用于視頻解碼和轉(zhuǎn)碼功能、視頻流、增強現(xiàn)實、生成 AI 視頻等場景。
快手和Google Cloud 是L4的早期用戶。
在圖像生成上,英偉達推出L40,針對圖形和支持 AI 的 2D、視頻和 3D 圖像生成進行了優(yōu)化。L40 是英偉達元宇宙Omniverse的引擎,可以用來構(gòu)建數(shù)據(jù)中心和運行元宇宙的程序。
在圖形推薦上,英偉達推出了Grace Hopper for Recommendation Models,主要用于圖形推薦模型、矢量數(shù)據(jù)庫和圖形神經(jīng)網(wǎng)絡。它將CPU 和 GPU做了一個連接,屬于超級芯片范疇,且兩類芯片之間的傳輸速度可以達到900 GB/s。
臺積電看好HPC前景
晶圓代工龍頭臺積電參加外資投資論壇時指出,美國芯片法案(CHIPS Act)對分享超額利潤等要求不會影響臺積電的海外投資,重申五年之后海外產(chǎn)能將占28納米及更先進制程20%目標不變。臺積電亦看好ChatGPT等生成式人工智能(AI)應用將帶動高效能運算(HPC)結(jié)構(gòu)性需求成長,臺積電在先進制程及先進封裝領先同行業(yè)將明顯受惠。
同時,臺積電預期在產(chǎn)能擴充及技術(shù)推進下,加上5G及HPC大趨勢不變,預期未來幾年的合并營收年復合成長率(CAGR)達15%~20%目標可望達成,長期毛利率可達53%以上,持續(xù)性且健全的股東權(quán)益報酬率(ROE)會優(yōu)于25%并為股東帶來盈利增長。
臺積電參加外資投資論壇,市場聚焦在海外投資、生成式AI、去庫存化等議題。在海外投資部分,美國芯片法案提供390億美元的半導體制造補助方案申請,但要求企業(yè)分享超額利潤且不能把資金用于發(fā)放股利或買回庫藏股。
臺積電表示,拓展全球制造足跡是依照客戶需求,雖然起始成本較高,但有能力吸收海外晶圓廠較高的成本,預期五年后海外產(chǎn)能將占28納米及更先進制程20%以上。
有關近期當紅的ChatGPT等生成式AI應用,臺積電認為會帶動HPC相關芯片的結(jié)構(gòu)性需求成長,因為HPC處理器需要采用先進制程及先進封裝,臺積電在這兩大領域具有領先地位,客戶群體包括IC設計廠、系統(tǒng)廠、大型資料中心業(yè)者等,所以可望受惠于生成式AI市場的成長,未來將帶來更多繪圖處理器(GPU)、可程序邏輯閘陣列(FPGA)、特殊應用芯片(ASIC)等晶圓代工需求。
