為了在人工智能市場搶占更大的份額,英偉達(dá)和Alphabet這兩家公司結(jié)成了意想不到的對手。到目前為止,Alphabet一直在谷歌云平臺使用英偉達(dá)的GPU加速其各種AI應(yīng)用,但現(xiàn)在看來,這家巨頭很是有意自己單獨切入這塊有著巨額利潤的空間。
就讓我們仔細(xì)看看英偉達(dá)和谷歌在人工智能上的淵源,以及可能產(chǎn)生的影響。
谷歌揭幕TPU第二代,在谷歌云平臺構(gòu)建機器學(xué)習(xí)超級計算機
Alphabet在去年谷歌I/O大會上推出了自己的AI芯片——張量處理器TPU。TPU被廣泛用于各種應(yīng)用,包括優(yōu)化搜索和語音識別的結(jié)果,在Alphabet的數(shù)據(jù)中心里也有使用。
與此同時,谷歌也在云計算平臺使用英偉達(dá)的TeslaGPU,幫助用戶訓(xùn)練模型。例如,2016年11月,英偉達(dá)就對外公布了,谷歌選擇使用英偉達(dá)的TeslaP100GPU和K80加速器為谷歌計算引擎(GoogleComputeEngine)和谷歌云機器學(xué)習(xí)用戶提供AI服務(wù)。
但是,在今年5月I/O大會上,谷歌推出第二代TPU,并且通過云服務(wù)供用戶使用,此舉震驚了科技界。在今年4月發(fā)布的一篇官方博文中,谷歌表示TPU比當(dāng)前的CPU/GPU速度快15~30倍。
第一代TPU只加速推理,但現(xiàn)在第二代TPU新增了訓(xùn)練的功能。不僅如此,谷歌的用戶還能通過專門的網(wǎng)絡(luò),在云端利用TPU構(gòu)建機器學(xué)習(xí)的超級計算機。
事實上,谷歌宣布自己已經(jīng)成功將某些AI模型的訓(xùn)練時間縮短到幾個小時,以前這樣的模型用市售GPU需要一天時間來訓(xùn)練。
到今年年底,當(dāng)谷歌TPU推出時,這可能意味著谷歌和英偉達(dá)在AI芯片上關(guān)系的終結(jié)。
英偉達(dá):用開源來反擊
英偉達(dá)的回應(yīng)是,谷歌在比較TPU相對于GPU的速度時,沒有與最新的Pascal架構(gòu)比較,而是選擇了較早的KeplerGPU。
此外,英偉達(dá)也沒有閑著,宣稱即將上市的VoltaGPU加速深度學(xué)習(xí)的性能會更好。
實際上,英偉達(dá)不僅僅定位于硬件供應(yīng)商,這家公司正在開發(fā)一個名叫英偉達(dá)GPU云(NVIDIAGPUCloud,NGC)的服務(wù),將配套提供GPU(比如英偉達(dá)基于Volta的TeslaV100)和英偉達(dá)深度學(xué)習(xí)庫。
英偉達(dá)采取了與谷歌不同的方式,專注將AI計算力作為平臺即服務(wù)(platform-as-a-service)來提供。
谷歌不會對外出售TPU,而是用TPU驅(qū)動自己的GoogleCompute平臺。因此,英偉達(dá)目前還無需擔(dān)憂失去谷歌這一客戶。另一方面,VoltaGPU平臺已經(jīng)開始具有商業(yè)吸引力,亞馬遜已確定在今年晚些時候V100芯片上市后立即購入。
英偉達(dá)的另一個優(yōu)勢在于,谷歌還沒有決定要開源AI框架,因此TPU的用戶被鎖定在谷歌的平臺上。而英偉達(dá)支持各種不同的云平臺,包括亞馬遜、微軟、谷歌、IBM,給了用戶在云服務(wù)供應(yīng)商(CSP)方面更多的選擇。
此外,英偉達(dá)CEO黃仁勛還出了一個狠招,他在公司官方博文中寫道,要開源英偉達(dá)的深度學(xué)習(xí)加速器?!安恍枰賮砣送顿Y打造會推理的TPU,我們這里免費提供——由世界上最好的芯片設(shè)計師設(shè)計?!?/p>
相對于局限在谷歌云服務(wù)中的TPU,英偉達(dá)的開源讓其產(chǎn)品成了CSP巨頭,比如亞馬遜和微軟的選擇。同時,谷歌云平臺還不如亞馬遜和微軟的云平臺那么成功,而這也將限制谷歌云平臺的發(fā)展。