【人工智能芯片產(chǎn)業(yè)百家爭鳴,誰能成功彈起?】1492年哥倫布從西班牙巴羅斯港出發(fā),一路西行發(fā)現(xiàn)了美洲。葡萄牙人達(dá)伽馬南下非洲,繞過好望角到達(dá)了印度。不久之后,麥哲倫用了整整三年時間,完成了人類史上第一次環(huán)球航行,開啟了人類歷史上的大航海時代。大航海時代的到來,拉近了人類社會各文明之間的距離,對人類社會產(chǎn)生了深遠(yuǎn)的影響。
人工智能進(jìn)入“大航海時代”
從深藍(lán)到AlphaGo,人工智能逐漸走進(jìn)人們的生活。人工智能也從一場技術(shù)革命,逐漸走向了產(chǎn)業(yè)落地。智能手機(jī)、智能家居設(shè)備、智能音箱……等設(shè)備,已經(jīng)完全進(jìn)入到人們的生活中。指紋識別、人臉識別、畫面增強(qiáng)等實用人工智能的技術(shù),也成為了人們?nèi)粘J褂秒娮釉O(shè)備必不可少的技術(shù)。
基于面部識別的emoji表情
這些在我們?nèi)粘I钪小耙姽植还帧钡娜斯ぶ悄芗夹g(shù)越來越普遍,代表了人工智能產(chǎn)業(yè)在近年來的爆炸式發(fā)展,2018年更是被稱為人工智能技術(shù)規(guī)模應(yīng)用的拐點。而作為人工智能技術(shù)的核心,人工智能芯片也備受關(guān)注,引得國內(nèi)外科技巨頭紛紛布局。谷歌、蘋果、微軟、Facebook、英特爾、高通、英偉達(dá)、AMD、阿里巴巴等巨頭紛紛開始自主研發(fā)人工智能芯片。
國產(chǎn)寒武紀(jì)片芯
并且人工智能芯片的應(yīng)用場景細(xì)分市場越來越多,專門為某些人工智能應(yīng)用場景定制的芯片適用性明顯高于通用芯片。這樣的形勢,給一些人工智能芯片的初創(chuàng)公司帶來了機(jī)會。寒武紀(jì)芯片和地平線的人工智能視覺芯片、自動駕駛芯片等,就是初創(chuàng)公司在人工智能芯片領(lǐng)域取得成功的代表。
人工智能芯片大火的同時,已經(jīng)呈現(xiàn)出三分天下的態(tài)勢。FPGA、GPU和TPU芯片,已經(jīng)在人工智能領(lǐng)域大規(guī)模應(yīng)用。這三種人工智能芯片有何不同?人工智能企業(yè)又是怎樣看待這三種芯片的?下文將為您詳述。
FPGA并不是新鮮的事物,而因為AI的火熱的應(yīng)用需求不斷增強(qiáng),F(xiàn)PGA正是作為一種AI芯片呈現(xiàn)在人們的面前。準(zhǔn)確的說,不僅僅是芯片,因為它能夠通過軟件的方式定義,所以,更像是AI芯片領(lǐng)域的變形金剛。
FPGA是現(xiàn)場可編程邏輯陣列的首字母縮寫,即Field-ProgrammableGateArray。過去曾與可編程邏輯器件CPLD進(jìn)行過較量,如今已經(jīng)在PAL、GAL、CPLD等可程式邏輯裝置的基礎(chǔ)上進(jìn)一步發(fā)展,成為英特爾進(jìn)軍AI市場的一個重要法寶。
全球FPGA市場的年均增長率會達(dá)到7%
為了更好地了解FPGA和其對AI芯片的未來看法,ZOL企業(yè)站對英特爾可編程解決方案事業(yè)部亞太區(qū)市場拓展經(jīng)理劉斌(RobinLiu)進(jìn)行了書面采訪。面對目前市場上出現(xiàn)的,CPU、GPU、FPGA、TPU等多種技術(shù)處理方式,英特爾又有哪些判斷。
FPGA三大特點
劉斌表示:“實際上今天絕大多數(shù)人工智能系統(tǒng)是部署在通用處理器上的,原因是在很多應(yīng)用領(lǐng)域中人工智能部分只是完成某個環(huán)節(jié)的系統(tǒng)任務(wù),還有大量其它任務(wù)一起構(gòu)成系統(tǒng)處理的完整單元。”在此基礎(chǔ)上,出現(xiàn)了很多種選項,比如FPGA、TPU2或者NNP等專用處理器。這種專用處理器,往往向深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)領(lǐng)域延伸,擁有更高效的存儲器訪問調(diào)度結(jié)構(gòu)。
FPGA具有很強(qiáng)的靈活性
FPGA被稱為大型數(shù)據(jù)中心和計算機(jī)群眾的“加速多面手”也有其技術(shù)生態(tài)背景。FPGA的開發(fā)社區(qū)規(guī)模相對較小,也具有一定的門檻,但是,F(xiàn)PGA具備良好的存儲器訪問能力,并且可以非常靈活高效的處理各種不同位寬的數(shù)據(jù)類型,其有效計算力接近專用處理器的水平,F(xiàn)PGA還可以在線重編程成為其它非人工智能任務(wù)的硬件加速器,這也是其有別于GPU和TPU的關(guān)鍵因素。
具體而言有三大特點:FPGA器件家族的廣泛覆蓋可以適配從云到端的應(yīng)用需求;FPGA具有處理時延小并且時延可控的特點,更適合某些實時性要求高的業(yè)務(wù)場景;FPGA可以靈活處理不同的數(shù)據(jù)位寬,使得系統(tǒng)可以在計算精度、計算力、成本和功耗上進(jìn)行折衷和優(yōu)化,更適合某些制約因素非常嚴(yán)格的工程化應(yīng)用。相比于ASIC則FPGA更加靈活,可以適配的市場領(lǐng)域更加廣泛。
自定義功能芯片
以微軟為例,在微軟必應(yīng)搜索業(yè)務(wù)和Azure云計算服務(wù)中,均應(yīng)用了英特爾FPGA技術(shù),在其發(fā)布的“腦波項目”(ProjectBrainwave)中特別闡述了英特爾FPGA技術(shù)如何幫助Azure云和必應(yīng)搜索取得“實時人工智能”(real-timeAI)的效果。
英特爾FPGA支持必應(yīng)快速處理網(wǎng)頁中的數(shù)百萬篇文章,從而為您提供基于上下文的答案。借助機(jī)器學(xué)習(xí)和閱讀理解,必應(yīng)現(xiàn)在可提供智能答案,幫助用戶更快速找到所需答案,而非手動點擊各個鏈接結(jié)果。在微軟腦波計劃中,同樣選擇了英特爾現(xiàn)場可編程門陣列的計算晶片,以具有競爭力的成本和業(yè)界最低延遲進(jìn)行人工智能計算。
如果說在AI芯片領(lǐng)域各家有各家的拿手絕學(xué),那么身為“變形金剛”FPGA的拿手絕學(xué)就是自定義功能了。作為特殊應(yīng)用積體電路領(lǐng)域中的一種半定制電路的FPGA,既解決了全定制電路的不足,又克服了原有可編程邏輯器件門電路數(shù)有限的缺點。也就是說,盡管FPGA不是輻射范圍最廣的,但是一旦匹配后,輸出驚人,所以也是良好的芯片選擇。
不止FPGA
隨著人工智能的發(fā)展,芯片的設(shè)計不僅要能夠滿足人工智能對計算力的需求,還要能夠適應(yīng)不斷變化的產(chǎn)業(yè)需要。在不同的應(yīng)用領(lǐng)域和不同的位置,前端還是數(shù)據(jù)中心,甚至邊緣計算等應(yīng)用場景。劉斌表示:一種芯片是沒辦法解決所有問題的。從移動設(shè)備,到服務(wù)器,再到云服務(wù)、機(jī)器學(xué)習(xí)和人工智能的加速,需要不同種類的技術(shù)支持,需要能夠支持從毫瓦級到千瓦級的多種架構(gòu)。
在英特爾人工智能領(lǐng)域,除了FPGA之外,還提供了ASIC方案下的NNP神經(jīng)網(wǎng)絡(luò)計算加速器、Movidius專注前端智能攝像頭領(lǐng)域和Mobieye加速芯片,在無人車領(lǐng)域做視覺相關(guān)的物體、道路、異常情況的監(jiān)測。
過去30多年,摩爾定律幾乎每年都會推動微處理器的性能提升50%,而半導(dǎo)體的物理學(xué)限制卻讓其放慢了腳步。如今,CPU的性能每年只能提升10%左右。事實上,英偉達(dá)CEO黃仁勛在每年的GTC上都會提到同一件事——摩爾定律失靈了。也就是說,人們要獲得更強(qiáng)的計算力,需要花費更多的成本。與此同時,GPU的崛起速度令人咂舌,看看英偉達(dá)近兩年的股價就知道了。
微處理器趨勢圖
隨著人工智能、深度學(xué)習(xí)等技術(shù)的興起與成熟,起初為圖像渲染而生的GPU找到了新的用武之地,以GPU驅(qū)動的計算環(huán)境隨處可見,從HPC到AI訓(xùn)練。站在數(shù)字世界、高性能計算、人工智能的交叉口,GPU悄然成為了計算機(jī)的大腦。將性能從10倍提升至100倍,GPU的加速能力遠(yuǎn)超以X86架構(gòu)構(gòu)建的CPU系統(tǒng),將時間壓縮至分鐘級別,功耗也相對較低。
2006年,借助CUDA(ComputeUnifiedDeviceArchitecture,通用計算架構(gòu))和TeslaGPU平臺,英偉達(dá)將通用型計算帶入了GPU并行處理時代,這也為其在HPC領(lǐng)域的應(yīng)用奠定了基礎(chǔ)。作為并行處理器,GPU擅長處理大量相似的數(shù)據(jù),可以將任務(wù)分解為數(shù)百或數(shù)千塊同時處理,而傳統(tǒng)CPU則是為串行任務(wù)所設(shè)計,在X86架構(gòu)下進(jìn)行多核編程是很困難的,并且從單核到四核、再到16核有時會導(dǎo)致邊際性能增益。同時,內(nèi)存帶寬也會成為進(jìn)一步提高性能的瓶頸。
傳統(tǒng)CPU計算架構(gòu)難以支撐快速成長的HPC
與以往的通用算法相比,深度學(xué)習(xí)對計算性能的要求則到了另一個量級上。盡管在GPU中運行并行核心時處理的應(yīng)用數(shù)量相同,但在系統(tǒng)中單個內(nèi)核的使用效率卻更高。此外,經(jīng)過重寫的并行函數(shù)在應(yīng)用程序關(guān)鍵部分運行時,在GPU上跑的速度更快。
更重要的是,英偉達(dá)在利用GPU構(gòu)建訓(xùn)練環(huán)境時還考慮到了生態(tài)的重要性,這也是一直以來困擾人工智能發(fā)展的難題。首先,英偉達(dá)的NVIDIAGPUCloud上線了AWS、阿里云等云平臺,觸及到了更多云平臺上的開發(fā)者,預(yù)集成的高性能AI容器包括TensorFlow、PyTorch、MXNet等主流DL框架,降低了開發(fā)門檻、確保了多平臺的兼容性。
其次,英偉達(dá)也與研究機(jī)構(gòu)、大學(xué)院校,以及向Facebook、YouTube這樣的科技巨頭合作,部署GPU服務(wù)器的數(shù)據(jù)中心。同時,還為全球數(shù)千家創(chuàng)業(yè)公司推出了Inception項目,除了提供技術(shù)和營銷的支持,還會幫助這些公司在進(jìn)入不同國家或地區(qū)的市場時,尋找潛在的投資機(jī)會。
可以說,英偉達(dá)之于GPU領(lǐng)域的成功除了歸功于Tesla加速器、NVIDIADGX、NVIDIAHGX-2這些專屬的工作站或云服務(wù)器平臺,更依托于構(gòu)建了完整的產(chǎn)業(yè)鏈通路,讓新技術(shù)和產(chǎn)品有的放矢,從而形成了自己的生態(tài)圈,這也是英特爾難以去打破的。
在不久前舉行的谷歌I/O2018開發(fā)者大會上,TPU3.0正式亮相。根據(jù)官方介紹,TPU3.0的計算能力最高可達(dá)100PFlops,是TPU2.0的8倍多。TPU的英文全名是TensorProcessorUnit,它是谷歌自主研發(fā)的針對深度學(xué)習(xí)加速的專用人工智能芯片。TPU是專為谷歌深度學(xué)習(xí)框架TensorFlow設(shè)計的人工智能芯片。著名的AlphaGo使用的就是TPU2.0芯片。
谷歌TPU3.0芯片
目前大多數(shù)人工智能企業(yè)青睞于GPU芯片,而TPU相對于GPU而言,采用8位低精度計算節(jié)省晶體管,對精度影響很小但是卻可以大幅節(jié)約功耗。尤其是當(dāng)大面積集成系統(tǒng)時,TPU不僅性能更強(qiáng),功耗也會大幅低于GPU集成系統(tǒng)。由于芯片能力非常強(qiáng)大,谷歌使用了液冷散熱技術(shù),可以幫助TPU更好的為數(shù)據(jù)中心服務(wù)。
谷歌TPU架構(gòu)
除了強(qiáng)大的性能外,谷歌在生態(tài)系統(tǒng)的建設(shè)上做了大量的工作。在TPU1.0和2.0的初期,谷歌并沒有大規(guī)模推進(jìn)其商業(yè)化,而是圍繞生態(tài)做文章。這就意味著要投入巨額的成本,而且冒著極大的市場風(fēng)險。當(dāng)然,背后的潛在市場也是巨大的。在人工智能市場競爭激烈的形勢下,吸引到更多的開發(fā)者到谷歌的生態(tài)系統(tǒng)中,將會比對手有更強(qiáng)的競爭優(yōu)勢。
TPU計算集群
目前谷歌正快速擴(kuò)張自己的云計算業(yè)務(wù),TPU也依托于云平臺運行。通過更低的售價讓人工智能開發(fā)企業(yè)拋棄GPU,轉(zhuǎn)投成本更低的TPU服務(wù),是谷歌目前正在大力發(fā)展的業(yè)務(wù)。如果TPU無法獲得巨大的市場份額從而降低單顆TPU的成本,那么谷歌將很難在人工智能市場盈利。不過,TPU強(qiáng)勁的計算性能和集群計算陣列可以讓人工智能開發(fā)企業(yè)更快的開展業(yè)務(wù)。TPU的強(qiáng)大,讓谷歌在人工智能芯片領(lǐng)域已稱霸一方。
上游廠商喊得再歡,落地到千人千面的行業(yè)場景中也要由解決方案商來幫忙,無論是GPU、FPGA還是TPU,最終還是要聽聽客戶的使用感受。為此,我們采訪了人工智能產(chǎn)品和行業(yè)解決方案提供商曠視科技。曠視科技利用自主研發(fā)的深度學(xué)習(xí)算法引擎Brain++,服務(wù)于金融安全、城市安防、手機(jī)AR、商業(yè)物聯(lián)、工業(yè)機(jī)器人等五大核心行業(yè)。
在曠視科技看來,GPU、FPGA、TPU在通用性和能效比之間的取舍不同。其中,GPU最成熟,但也最耗資源,常用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)和服務(wù)端;FPGA最靈活,能支持應(yīng)用中出現(xiàn)的特殊操作,但要考慮靈活度和效率之間的trade-off;TPU相對最不靈活,但如果場景合適則能發(fā)揮出最大功用。
如果拿汽車類比,GPU是大巴車,適合多人同目標(biāo);FPGA是小轎車,能到任何地方,但得自己會開;而TPU是火車,只能在比公路少的多的鐵軌上開,但開的飛快。人工智能還在快速發(fā)展,還處于在各個行業(yè)落地的過程中。這個階段對GPU,F(xiàn)PGA和TPU都有需求。
目前,曠視科技選擇的是T型技術(shù)方案,即在維持一定廣度的同時,深耕某些應(yīng)用場景,因此在算法實際落地的過程中,自然而然地產(chǎn)生了從GPU/CPU到FPGA的需求。GPU主要用于訓(xùn)練,而FPGA能在端上能提供比GPU更好的性能功耗比。CPU則是無處不在的“默認(rèn)"選擇。未來,不排除采用TPU的方案來進(jìn)一步提高端上的能力。
從行業(yè)來看,當(dāng)前IoT領(lǐng)域?qū)I芯片的需求最為迫切,原因是IoT領(lǐng)域要求在有限的功耗下完成相應(yīng)的AI任務(wù),最需要性能功耗比高的AI芯片。至于未來要借助AI賦能各個行業(yè),曠視科技認(rèn)為,最初階段可能都會先用GPU的AI方案,因為和源頭(即神經(jīng)網(wǎng)絡(luò)訓(xùn)練階段)銜接最好。另外對于中心化的應(yīng)用,只要GPU按現(xiàn)在的“黃定律”的速度迭代前進(jìn),基于GPU在大批量處理數(shù)據(jù)的場景下仍然經(jīng)常是公開可得的最佳方案。