日日躁夜夜躁狠狠躁超碰97,无码国内精品久久综合88 ,热re99久久精品国99热,国产萌白酱喷水视频在线播放

歡迎訪問深圳市中小企業(yè)公共服務平臺電子信息窗口

為了搭建好的AI基礎設施,英偉達也是蠻拼的

2023-04-23 來源:網絡整理
1883

關鍵詞: AI 英偉達 云計算

過去十年中,云計算以每年20%的增幅高速增長,并迅速發(fā)展成為一個萬億美元的產業(yè)。IDC預測稱,到2025年,云將超過本地基礎設施,成為65%的企業(yè)組織存儲、管理和分析運營數(shù)據(jù)的主要方式。但與之前相比,企業(yè)更關注云計算帶來的運營成本效益,已經遷移到云端的客戶開始關注平臺和軟件服務。


DGX Cloud:隨時隨地將AI帶給每家公司


NVIDIA在GTC 2023上描繪了為全球客戶構建數(shù)據(jù)中心和AI基礎設施的藍圖,并推出了全新的DGX 計算機, 搭載了8顆NVIDIA GPU。


其實早在2016年,NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛先生就親手向OpenAI交付了第一臺NVIDIA DGX超級計算機。此后數(shù)年里,NVIDIA DGX從最初被用作AI技術的研究設備,逐步被企業(yè)擴展至數(shù)據(jù)優(yōu)化和AI處理,據(jù)稱財富前100強公司中約有半數(shù)采用了DGX。進入2023年后,隨著ChatGPT的走紅,部署像ChatGPT這樣的大型語言模型(LLM)正在成為DGX越來越重要的一項工作。


而為了加快把DGX能力帶給初創(chuàng)企業(yè)和其他各類企業(yè),以助力其快速打造新產品和制定AI戰(zhàn)略,NVIDIA最新發(fā)布了NVIDIA DGX Cloud。通過與微軟Azure、Google Cloud和Oracle Cloud Infrastructure合作,“從瀏覽器上”即可實現(xiàn)將NVIDIA DGX AI超級計算機“帶給每家公司”的愿景。這一模式也被稱之為Training-as-a-Service,或者Model Making-as-a-Service。


實際上,這并不是英偉達第一次公布DGX Cloud。此前在英偉達2022財年四季度財報發(fā)布時,黃仁勛先生就向外界透露說英偉達將與云服務廠商展開合作,讓客戶以使用網頁瀏覽器的方式,就能通過NVIDIA DGX Cloud來使用DGX計算機,從而訓練和部署大型語言模型或完成其他AI工作負載。


簡單而言,DGX Cloud可提供 NVIDIA DGX AI超級計算專用集群,并配以NVIDIA AI Enterprise軟件推動AI端到端開發(fā)和部署。每個企業(yè)都可以通過一個簡單的網絡瀏覽器訪問自己的AI超級計算機,免除了購置、部署和管理本地基礎設施的復雜性。同時,企業(yè)可按月租用DGX Cloud集群,以便能夠快速、輕松地擴展大型多節(jié)點訓練工作負載的開發(fā),而無須等待需求量通常很大的加速計算資源。


目前,NVIDIA正在與領先的云服務商聯(lián)合托管DGX Cloud基礎設施,Oracle Cloud Infrastructure(OCI)將首當其沖,通過其OCI超級集群,提供專門構建的RDMA網絡、裸金屬計算以及高性能本地塊存儲,可擴展到超過32,000個GPU所組成的超級集群。微軟Azure預計將在下個季度開始托管DGX Cloud,該服務將很快擴展到Google Cloud等。


賦能生成式AI


為了加速企業(yè)使用生成式AI的工作,NVIDIA發(fā)布的另一項重磅消息則是推出NVIDIA AI Foundations云服務系列,為需要構建、完善和運行自定義大型語言模型及生成式 AI的客戶提供服務,他們通常使用專有數(shù)據(jù)進行訓練并完成特定領域的任務。


AI Foundations服務包括三類:NVIDIA NeMo,用于構建自定義語言文本-文本轉換生成模型;Picasso視覺語言模型制作服務,適用于想要構建使用授權或專有內容訓練而成的自定義模型的客戶;以及BioNeMo,助力2萬億美元規(guī)模的藥物研發(fā)行業(yè)的研究人員。


NeMo和Picasso服務運行在可通過瀏覽器訪問的NVIDIA DGX Cloud上。開發(fā)人員可以通過簡單的應用編程接口(API)使用每項服務上提供的模型。一旦模型可以部署,企業(yè)就能夠使用NVIDIA AI Foundations云服務大規(guī)模地運行推理工作負載。


每項云服務都包含六個要素:預訓練模型、數(shù)據(jù)處理框架、矢量數(shù)據(jù)庫和個性化服務、經過優(yōu)化的推理引擎、各種API、以及NVIDIA專家提供的支持,可幫助企業(yè)針對其自定義用例調整模型。


從已公布的用戶案例來看:


  • Adobe正與NVIDIA共同開發(fā)新一代先進的生成式AI模型,側重于將生成式AI深度集成到全球頂尖創(chuàng)作者和營銷人員所使用的應用中。

  • Shutterstock正在與NVIDIA一起訓練一個生成式文本-3D轉換基礎模型,創(chuàng)作時間可從數(shù)小時縮短至數(shù)分鐘。通過使用NVIDIA Picasso生成式AI云服務構建自定義模型,Shutterstock將幫助3D藝術家創(chuàng)建物體形狀、幫助展開物體、生成紋理和材質,甚至為非3D內容創(chuàng)作者制作可直接用于各種應用和平臺的完整3D模型。

  • Getty Images正在與NVIDIA一起訓練負責任的生成式文本-圖像,以及文本-視頻轉換基礎模型。這些模型將使用簡單的文本提示創(chuàng)建圖像和視頻,并將在Getty Images完全授權的資產上進行訓練。Getty Images將根據(jù)這些模型所產生的收入向藝術家支付版權費。

  • 生物技術公司安進(Amgen)使用其專有的抗體專利數(shù)據(jù)對BioNeMo ESM模型架構進行了預訓練和微調。該公司將在DGX Cloud上訓練五個用于分子篩選和優(yōu)化的自定義模型,所需要的時間從三個月縮短到了幾周。

與此同時,加速生成式AI模型的快速部署也是NVIDIA關心的重點。為此,黃仁勛先生發(fā)布了用于AI視頻、圖像生成、大型語言模型部署和推薦器推理的推理平臺,這些平臺將NVIDIA的全套推理軟件與最新的NVIDIA Ada、Hopper和Grace Hopper處理器相結合,包括同時在最近推出的NVIDIA L4 Tensor Core GPU和NVIDIA NVL GPU。


  • 用于AI視頻的NVIDIA L4可提供比CPU高出120倍的由AI支持的視頻性能,同時提高99%的能效。

  • 用于圖像生成的NVIDIA L40針對圖形以及AI賦能的2D視頻和3D圖像生成進行了優(yōu)化。

  • 用于大型語言模型部署的NVIDIA NVL是規(guī)?;渴餋hatGPT等大型語言模型的理想選擇。

  • 用于推薦模型的NVIDIA Grace Hopper是圖形推薦模型、矢量數(shù)據(jù)庫和圖形神經網絡的理想選擇。


Google Cloud是首家支持L4 Tensor Core GPU的云服務提供商,該公司已推出新的G2虛擬機并在近日提供私人預覽版。此外,谷歌還將L4 GPU集成到其Vertex AI模型商店中。資料顯示,L4 GPU是一款適用于幾乎所有工作負載的通用GPU,具有更加強大的AI視頻功能,可提供比CPU高120倍的AI視頻性能,同時能效提高了99%。


BlueField-3 DPU提升數(shù)據(jù)中心的性能、效率和安全性


據(jù)IDC統(tǒng)計,全球算力的需求每3.5個月就會翻一倍,遠遠超過了當前算力的增長速度。在此驅動下,全球計算、存儲和網絡基礎設施也在發(fā)生根本轉變,一些復雜的工作負載,在通用的CPU上不能很好的處理,為減輕CPU/GPU內核的負擔,很多一級云服務提供商開始考慮如何在單芯片DPU上就可實現(xiàn)網絡、存儲、安全等關鍵任務的加速工作。


2020年10月,英偉達將基于Mellanox的SmartNIC技術推出 BlueField DPU(數(shù)據(jù)處理器),并將CPU、GPU、DPU稱之為組成“未來計算的三大支柱”。作為面向數(shù)據(jù)中心的專用處理器,DPU新增了AI、安全、存儲和網絡等各種加速功能,能夠對性能敏感且通用的基礎設施工作負載進行加速,從而更好地支撐CPU、GPU的上層業(yè)務,成為整個網絡的中心節(jié)點。


有行業(yè)人士表示,未來,用于數(shù)據(jù)中心的DPU量級將達到和數(shù)據(jù)中心服務器等量的級別?!懊颗_服務器可能沒有GPU,但一定會有一塊或者幾塊DPU卡,這將是一個千億量級的市場?!?/span>


本屆GTC 2023上,NVIDIA宣布Oracle云基礎設施(OCI)已選擇 NVIDIA BlueField-3 DPU作為其網絡堆棧的最新部分,從而為其客戶提供一個強大的新選項,用于從CPU卸載數(shù)據(jù)中心基礎設施任務。


BlueField-3 DPU是NVIDIA第三代數(shù)據(jù)處理器,與上一代BlueField DPU相比,BlueField-3 DPU支持高達400Gbps的以太網和InfiniBand網絡連接,提供了4倍的計算能力、4倍的加密加速性能、2倍的存儲處理性能和4倍的內存帶寬。測試顯示,與未使用DPU的服務器相比,使用NVIDIA BlueField DPU的服務器可降低高達24%的功耗。


通過NVIDIA DOCA軟件框架,BlueField DPU可完全向后兼容。NVIDIA DOCA為開發(fā)者提供先進的零信任安全功能,使開發(fā)者能夠創(chuàng)建用于控制資源訪問的計量云服務、驗證每個應用程序和用戶、隔離可能被入侵的機器,并幫助保護數(shù)據(jù)免遭破壞和盜竊。


結語


在計算機科學界,沒有人會相信近十年間,與訓練模型和數(shù)據(jù)(從AlexNet訓練到現(xiàn)在)相關的計算量會擴大100萬倍。而在生成式AI需求爆發(fā)式增長的背景下,行業(yè)更需要進行充分的供應鏈準備,以滿足全球對AI的需求。這也解釋了黃仁勛之所以多次強調加速計算的原因所在,畢竟,通過執(zhí)行這樣的全棧操作,不但可以將計算性能顯著提升,更可以有效節(jié)省計算時間,從而節(jié)約能源,助推可持續(xù)發(fā)展。