日日躁夜夜躁狠狠躁超碰97,无码国内精品久久综合88 ,热re99久久精品国99热,国产萌白酱喷水视频在线播放

歡迎訪問深圳市中小企業(yè)公共服務平臺電子信息窗口

英特爾急了,甩出一系列新招應對GPU沖擊,PC也要進入AI時代

2023-10-08 來源:賢集網
1080

關鍵詞: 英特爾 GPU 人工智能

美國時間9月19日,英特爾在加州圣何塞舉辦“Innovation 2023"活動,英特爾CEO帕特·基辛格登臺,年過六旬的他一上場便做了一個伏地挺身,為這場信息量爆炸的演講做了鋪墊。

在這場英特爾年度最重要的發(fā)布會上,基辛格接連宣布公司在芯片,尤其是先進制程上的最新進展;包括采用5納米的下一代AI專用芯片Gaudi 3;酷睿Ultra和第五代至強處理器;以及Intel 18A(1.8納米)制程……



英特爾的AI時代

這次英特爾的發(fā)布會中,AI是貫穿始終的主旋律。

演講開篇,基辛格便表示,AI正在催生全球增長的新時代,在新時代當中,算力便起到了重要的作用,開發(fā)者正迎來巨大的商業(yè)和社會機會——算力離不開芯片,如今芯片形成了規(guī)模達5740億美元的行業(yè),驅動著全球背后約8萬億美元的技術經濟。

隨后,基辛格宣布推出第五代“至強”處理器、以及即將發(fā)布搭載著英特爾酷睿 Ultra處理器的AI PC。

英特爾先是披露了一臺采用英特爾至強處理器,和4000個英特爾Gaudi2加速器的大型AI超級計算機。英特爾表示,Gaudi 2加速器已經能滿足各種AI計算的解決方案,包括更大更具有挑戰(zhàn)性的大語音模型等等。

英特爾方面稱,其第五代“至強”處理器未來將在同樣功耗下,提升數(shù)據(jù)中心的性能和存儲速度,相比于上一代,AI方面的性能提升了2-3倍,將于12月14 日發(fā)布。

為了展示AI能力的全面躍升,英特爾還拉了下游伙伴來站臺,包括AI獨角獸Stability AI、以及阿里云智能CTO周靖人。

周靖人主要闡述了阿里巴巴如何將內置AI加速器的第四代英特爾?至強?可擴展處理器,用在阿里云的通義千問大模型上。其稱,英特爾的技術,大幅縮短了模型響應時間,“平均加速可達3倍”。

至強處理器和Gaudi2加速器的搭配,更多是用在數(shù)據(jù)中心上,而英特爾此次也在探索如何把AI與端邊計算融合,改造原有的PC體驗。

英特爾甚至將他們即將推出的酷睿Ultra處理器稱為:“PC處理器路線圖的轉折點”——這顆處理器最大的亮點在于,英特爾在上面安裝了一顆神經網絡處理器(NPU),讓傳統(tǒng)的PC也能夠在本地實現(xiàn)更強的AI 加速體驗。

另外,這顆芯片的亮點還有:是首個采用Foveros封裝技術的產品;也集成了英特爾的銳炫顯卡,能夠有獨立顯卡的性能。

英偉達在AI時代最大的財富是在全球擁有一大波忠誠的開發(fā)者。而英特爾顯然也有意構建自己的生態(tài)體系,為開發(fā)者們創(chuàng)造更高拓展性、透明度的開發(fā)環(huán)境。



大模型出現(xiàn)帶動AI服務器呈現(xiàn)加速狀態(tài)

除了對低延遲低功耗算力的性能需求,在服務器的種類上也產生了多樣化、細分化的場景應用需求。各行業(yè)與人工智能技術的深度結合及應用場景的不斷成熟與落地,使人工智能芯片朝著多元化的方向發(fā)展,為了迎合芯片的多元化,服務器的類型也將越來越豐富,并適用越來越多的行業(yè)應用場景。根據(jù)IDC在2021年的統(tǒng)計,預計到2025年中國加速服務器市場規(guī)模將達到108.6億美元,且2023年仍處于中高速增長期,增長率約為20%。


AI大模型對算力的需求分別來自訓練和推理兩個環(huán)節(jié)

1)訓練環(huán)節(jié):通過標記過的數(shù)據(jù)來訓練出一個復雜的神經網絡模型,使其能夠適應特定的功能,模型具有一定的通用性,以便完成各種各樣的學習任務。該環(huán)節(jié)需要處理海量的數(shù)據(jù),注重絕對的計算能力。

2)推理環(huán)節(jié):利用訓練好的模型,使用新數(shù)據(jù)推理出各種結論。借助神經網絡模型進行運算,利用輸入的新數(shù)據(jù)來一次性獲得正確結論的過程。該環(huán)節(jié)對算力要求比訓練環(huán)節(jié)略低,但注重綜合指標,單位能耗算力、時延、成本等都要考慮。

訓練對算力要求更高:2021年中國AI服務器推理負載占比約55.5%,未來有望持續(xù)提高;訓練對芯片算力要求更高,推理對算力的要求偏低。

服務器架構隨負載量擴張而不斷優(yōu)化: 服務器架構經歷了從傳統(tǒng)單一模式到集群模式,再到分布式架構的優(yōu)化過程。傳統(tǒng)單一模式,服務器誕生初期將所有功能匯集在同一個系統(tǒng),缺點為不便于維護、橫向拓展性不佳;因此集群模式誕生,這種集群模式將同一項目放在多個服務器上,有效緩解用戶訪問量大的壓力,但由于各個服務器間功能重復卻缺乏協(xié)同,系統(tǒng)維護成本仍然較高,且增加了用戶重復登陸問題,因此服務器架構進化到分布式模式。在分布式架構中,整個系統(tǒng)按照不同功能拆分為多個單一功能的子模塊,每個模塊被放到不同服務器中相互協(xié)作,共同組成服務器網絡,能夠有效解決功能耦合度高等問題且代碼復用性高。


GPU蠶食CPU市場

黃仁勛在今年2023 COMPUTEX演講中即提到,PC產業(yè)正同時經歷“加速運算”和“生成式AI”兩大轉變,CPU時代已經結束,產業(yè)需要一個更快的計算模式,即是GPU。以往PC、服務器中最重要的零組件為CPU,但隨著需要大量計算能力的AI應用出現(xiàn)后,GPU將成為主角,CPU淪為配角。目前最先進的系統(tǒng)是采用8個GPU配1個CPU的配置,以發(fā)揮最高的計算能力。

另一個數(shù)據(jù)中心CPU和GPU感受兩極化的原因:GPU產能因為CoWoS封裝產能不足而受限,大家買不到足夠GPU后來變成重復下單。


某客戶本來只需要50顆GPU,因為買不到足夠數(shù)量只好到處下訂,最后延伸出200顆GPU的需求量,即使最后訂單砍單一半,供需還是有缺口。這也是為什么黃仁勛一直說GPU需求真的很強很強,因為客戶都怕缺貨,實際下單的數(shù)量都早已超過實際需求不知道幾倍。

反觀通用服務器,因為全球經濟景氣不佳,消費力轉趨保守,服務器客戶對于新建的資本支紛紛縮手,轉而傾向優(yōu)化現(xiàn)有設備,或是用軟件更新等各種方式來延長使用壽命和資源重新分配,釋放更大性能,因此通用服務器芯片供應商當然會感受到無盡寒意。

不過,AI服務器和通用服務器的兩極化現(xiàn)象也不會無止境的擴大下去,因為AI服務器還是要建立在既有的基礎架構和終端設備之上,GPU侵蝕很大部分的CPU使用量,但不能全然取代CPU。

短期內,生成式AI帶來很多新應用和海量信息需求,大家趕著布建AI服務器,因此瘋狂下單GPU,等到AI服務器的需求布建到一定程度,最后還是會回過頭來布建通用服務器。長期來看,AI服務器的氣勢如虹,終究會帶動通用服務器需求脫離谷底才對。


總結

作為一家長期領先的半導體企業(yè),以CPU而聞名天下的廠商,英特爾在處理器方面的進展尤其值得關注。在本次大會上,英特爾也的確帶來了全面的展示,英特爾的PC芯片從此也開始全面進入AI時代。

基辛格表示:“人工智能將從根本上改變、重塑和重構 PC 體驗,通過云和 PC 協(xié)同工作的力量釋放個人生產力和創(chuàng)造力。為此,英特爾正在開創(chuàng)人工智能電腦的新時代?!贝枮镸eteor Lake的Intel Core Ultra處理器,正是英特爾實現(xiàn)上述目標的一個重要倚仗