GPU大廠英偉達(dá)19日清晨在美國(guó)加州圣荷西召開的GTC2024,發(fā)表號(hào)稱迄今最強(qiáng)AI芯片GB200,今年稍晚出貨。GB200采新Blackwell架構(gòu)GPU,英偉達(dá)創(chuàng)辦人暨執(zhí)行長(zhǎng)黃仁勛表示,兩年前Hopper架構(gòu)GPU已非常出色,但現(xiàn)在需要更強(qiáng)大的GPU。
英偉達(dá)每?jī)赡旮骂l率,升級(jí)一次GPU架構(gòu),大幅提升AI芯片性能。英偉達(dá)2022年發(fā)表Hopper架構(gòu)H100AI芯片后,引領(lǐng)全球AI市場(chǎng)風(fēng)潮。如今再推采Blackwell架構(gòu)的AI芯片性能更強(qiáng)大,更擅長(zhǎng)處理AI任務(wù),Blackwell架構(gòu)是以數(shù)學(xué)家David Harold Blackwell之名命名。
黃仁勛表示,Blackwell架構(gòu)GPU的AI運(yùn)算性能在FP8及NEW FP6都可達(dá)20petaflops,是前一代Hopper架構(gòu)運(yùn)算性能8petaflops的2.5倍。NEWFP4更可達(dá)40petaflops,是前代Hopper架構(gòu)GPU運(yùn)算性能8petaflops5倍。取決于各種Blackwell架構(gòu)GPU設(shè)備的記憶體容量和頻寬配置,工作運(yùn)算執(zhí)行力的實(shí)際性能可能會(huì)更高。黃仁勛強(qiáng)調(diào),有額外處理能力,使人工智慧企業(yè)訓(xùn)練更大更復(fù)雜的模型。
Blackwell架構(gòu)GPU的體積龐大,采臺(tái)積電4納米(4NP)打造,整合兩個(gè)獨(dú)立制造的裸晶(Die),共2,080億個(gè)電晶體,透過(guò)NVLink5.0介面像拉鏈綁住芯片。英偉達(dá)用10TB/sec NVLink5.0連接兩塊裸晶,官方稱介面為NV-HBI。Blackwell complex的NVLink5.0介面為1.8TB頻寬,是前代Hopper架構(gòu)GPU NVLink4.0介面速度的兩倍。
英偉達(dá)最新GB200 AI芯片,含兩個(gè)Blackwell GPU和一個(gè)Arm架構(gòu)Grace CPU,推理模型性能比H100提升30倍,成本和能耗降至25分之一。
英偉達(dá)還對(duì)有大型需求的企業(yè)提供服務(wù)器成品,提供完整服務(wù)器出貨,如GB200 NVL72服務(wù)器,提供36個(gè)CPU和72個(gè)Blackwell架構(gòu)GPU,完善一體水冷散熱方案,可實(shí)現(xiàn)總計(jì)720petaflops的AI訓(xùn)練性能或1,440petaflops推理性能。電纜長(zhǎng)度累計(jì)近2英里,共5,000條獨(dú)立電纜。
亞馬遜AWS計(jì)劃采購(gòu)2萬(wàn)片GB200芯片組建的服務(wù)器集群,部署27兆個(gè)參數(shù)模型。除了亞馬遜AWS,DELL、Alphabet、Meta、微軟、OpenAI、Oracle和TESLA成為Blackwell系列的采用者之一。