【一文了解能使傳感器和其他設(shè)備更快處理數(shù)據(jù)的AI專用芯片】一直以來,Google就通過自研AI芯片以滿足其神經(jīng)網(wǎng)絡(luò)日益增長(zhǎng)的計(jì)算需求。北京時(shí)間昨日晚間,遠(yuǎn)在太平洋彼岸的GoogleCloudNext2018大會(huì)上,Google正式對(duì)外宣布推出EdgeTPU,一款能使傳感器和其他設(shè)備更快處理數(shù)據(jù)的AI專用芯片。
據(jù)了解,早在2016年,Google就發(fā)布了張量處理單元(TensorProcessingUnit,簡(jiǎn)稱TPU),讓大家首次認(rèn)識(shí)到了AI專用芯片的能力。
從TPU的一路演進(jìn)上可以發(fā)現(xiàn),在2015年Google才剛開始內(nèi)部投入使用,2016年初代TPU版本公布時(shí)還只能做些通過數(shù)據(jù)預(yù)測(cè)的事情,2017年第二代版本則可被用來訓(xùn)練模型,甚至還能與英偉達(dá)顯卡相媲美,到今年5月第三代版本推出時(shí),由TPU3.0組成的TPUPod運(yùn)算陣列,性能相比上一代提升了8倍,可提供100petaflops(千萬億次)的機(jī)器學(xué)習(xí)硬件加速.
而此次EdgeTPU的到來讓我們看到,Google又將目光轉(zhuǎn)移到了網(wǎng)絡(luò)終端的無數(shù)個(gè)物聯(lián)網(wǎng)設(shè)備,并順勢(shì)推出了配套軟件棧CloudIoTEdge。
相比來說,EdgeTPU是專門為在邊緣運(yùn)行TensorFlowLiteML模型而設(shè)計(jì),用來處理ML預(yù)測(cè)的微型芯片,要比訓(xùn)練模型的計(jì)算強(qiáng)度小很多。EdgeTPU可以自己進(jìn)行運(yùn)算,不需要與多臺(tái)強(qiáng)大的計(jì)算機(jī)相連,因此應(yīng)用程序可以更快、更可靠的工作。
EdgeTPU開發(fā)套件:SOM和底板
在CNBC等多家外媒報(bào)道中透露,Google進(jìn)軍“定制芯片”市場(chǎng),是其試圖擴(kuò)大云計(jì)算市場(chǎng)份額、與亞馬遜和微軟加強(qiáng)競(jìng)爭(zhēng)的一種方式。自2015年以來,Google始終在用TPU來加速自家數(shù)據(jù)中心的某些工作負(fù)載,而不是依賴英偉達(dá)等供應(yīng)商提供的商用硬件。
接受CNBC采訪中,三星前首席技術(shù)官InjongRhee則表示,Google并沒有讓EdgeTPU與傳統(tǒng)芯片競(jìng)爭(zhēng),“這對(duì)所有硅芯片供應(yīng)商和設(shè)備制造商是非常有利的”。
在他看來,EdgeTPU可能會(huì)“顛覆云計(jì)算競(jìng)爭(zhēng)”,因?yàn)樵S多計(jì)算現(xiàn)在可以在設(shè)備上進(jìn)行,而不是全部發(fā)送到數(shù)據(jù)中心。在成本和能耗方面,Google芯片在某些類型的計(jì)算上比傳統(tǒng)芯片更加高效。