Google投入自家AI芯片 期望發(fā)揮帶頭作用

時(shí)間:2017-06-09

來(lái)源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語(yǔ):日前Google針對(duì)資料中心市場(chǎng)推出自家晶片TensorProcessingUnit(TPU),專(zhuān)門(mén)應(yīng)付處理大量數(shù)據(jù)需求。

日前Google針對(duì)資料中心市場(chǎng)推出自家晶片TensorProcessingUnit(TPU),專(zhuān)門(mén)應(yīng)付處理大量數(shù)據(jù)需求。評(píng)論指出,Google之所以推出該技術(shù),主要出發(fā)點(diǎn)在于追求效能、降低耗能與帶領(lǐng)其他業(yè)者一同加入打造TPU的行列。

據(jù)NetworkWorld報(bào)導(dǎo),過(guò)去由IBM大型主機(jī)與升陽(yáng)(Sun)伺服器處理的資料中心工作量自從受到諸如Google等云端業(yè)者帶動(dòng)后,更讓英特爾(Intel)的PC硬體將其普及化,不過(guò),日前Google公布自家TPU效能與架構(gòu)詳細(xì)研究報(bào)告后,上述情況恐將從此改變。

首先,TPU并非類(lèi)似英特爾中央處理器(CPU)或NVIDIA繪圖處理器(GPU)的晶片,而是屬于機(jī)器學(xué)習(xí)的ASIC特殊應(yīng)用晶片。機(jī)器學(xué)習(xí)包括訓(xùn)練與推理兩大部分。訓(xùn)練是指利用數(shù)據(jù)將電腦程式化。

在機(jī)器學(xué)習(xí)系統(tǒng)提供各種語(yǔ)言的句子并教導(dǎo)電腦翻譯成其他語(yǔ)言屬于訓(xùn)練,而口說(shuō)或在智慧型手機(jī)內(nèi)輸入某語(yǔ)言的句子轉(zhuǎn)變成另一種語(yǔ)言則是推理。

由于TPU是針對(duì)推理的特殊任務(wù)而設(shè)計(jì),加上推理已逐漸成為Google工作量龐大部分,在工作量增加后也催生Google的TPU問(wèn)世。

諸如語(yǔ)言翻譯與圖片搜尋等推理模型的處理容量屬于面對(duì)用戶(hù)的功能,因此,需要低成本與低延遲效能,而推理正是讓資料中心容量神經(jīng)網(wǎng)路工作量最大化最適合起點(diǎn)。

評(píng)論認(rèn)為,Google之所以設(shè)計(jì)并打造TPU原因首先就是著眼于效能。Google將自家TPU與執(zhí)行95%推理工作量的英特爾伺服器等級(jí)HaswellCPU與NVIDIAK80GPU相比,而在執(zhí)行神經(jīng)網(wǎng)路推理時(shí),TPU速度更比NVIDIAGPU與英特爾CPU快15~30倍。

第二是考量實(shí)體空間。云端資料中心相當(dāng)于IT廠房。Google資料處理廠房等龐大基礎(chǔ)建設(shè)的資本與營(yíng)運(yùn)費(fèi)用已成為一筆龐大預(yù)算。6年前,當(dāng)用戶(hù)開(kāi)始使用自然語(yǔ)言辨識(shí)取代手機(jī)鍵盤(pán)時(shí),Google工程時(shí)當(dāng)時(shí)曾預(yù)估,每天每位用戶(hù)3分鐘自然語(yǔ)言輸入,將會(huì)讓采用英特爾與NVIDIA設(shè)計(jì)的資料中心數(shù)量開(kāi)始倍增。

第三是耗能。評(píng)論指出,速度較快的晶片但沒(méi)有伴隨耗能降低,只能影響實(shí)際空間成本,降低耗能則可帶來(lái)雙重影響,因?yàn)榭山档褪褂媚茉戳恳约敖档屠鋮s成本。Google指出,結(jié)合TPU與CPU處理器每瓦效能在不同工作量下,比CPU與GPU替代技術(shù)提升30~80倍。

第四是TPU可解決特殊應(yīng)用問(wèn)題。英特爾的CPU與NVIDIA的GPU是屬于廣泛應(yīng)用的一般系統(tǒng)單晶片(SoC),特別是精準(zhǔn)計(jì)算的浮點(diǎn)運(yùn)算。機(jī)器學(xué)習(xí)模型可容忍低準(zhǔn)度數(shù)學(xué)運(yùn)算,因此,無(wú)需浮點(diǎn)處理單元(FPU)。

若拿英特爾及NVIDIA的系統(tǒng)單晶片與FPU相比,利用TPU8位元數(shù)學(xué)運(yùn)算驅(qū)動(dòng)的推理模型預(yù)測(cè)精準(zhǔn)度兩者相當(dāng)。

另外,矩陣幾何數(shù)學(xué)組成了多數(shù)的神經(jīng)網(wǎng)路運(yùn)算,至于矩陣相乘單元(MatrixMultiplyUnit;MMU)則是TPU的核心。當(dāng)中包含可執(zhí)行8位元乘法與加法共256x256的乘數(shù)累加器(MAC),MMU每周期可執(zhí)行6.4萬(wàn)次累加計(jì)算。

TPU在時(shí)脈0.7GHz時(shí)由于可讓低準(zhǔn)度矩陣數(shù)學(xué)最大化以及快速移動(dòng)數(shù)據(jù)與結(jié)果,相較英特爾與NVIDIA的晶片可達(dá)到最大效能表現(xiàn)。Google也指出,未來(lái)TPU重新設(shè)計(jì)增加匯流排頻寬后,性能將提升2~3倍。

第五則是促使晶片廠打造TPU。由于Google是數(shù)據(jù)頭號(hào)使用者,因此相當(dāng)了解機(jī)器學(xué)習(xí)問(wèn)題并能足夠打造出解決方案,而且歷經(jīng)2年在其資料中心運(yùn)作后,證實(shí)該問(wèn)題已經(jīng)獲得解決。

而Google之所以釋出這次報(bào)告,目的是希望在機(jī)器學(xué)習(xí)與晶片廠團(tuán)體內(nèi)提高討論度,目前已是推出可大量執(zhí)行推理的商用解決方案的時(shí)候。

第六則是專(zhuān)利與智財(cái)權(quán)交易。由NormanJouppi率領(lǐng)的團(tuán)隊(duì)在15個(gè)月內(nèi)便推出TPU,若搜尋美國(guó)專(zhuān)利局資料庫(kù)有關(guān)Jouppi的專(zhuān)利,當(dāng)中更可發(fā)現(xiàn)許多TPU相關(guān)專(zhuān)利。評(píng)論指出,身為專(zhuān)利擁有者,Google可借由開(kāi)放其專(zhuān)利鼓勵(lì)晶片廠進(jìn)入該市場(chǎng),而且主要機(jī)器學(xué)習(xí)使用者業(yè)者,例如亞馬遜(Amazon)、Google、Facebook、IBM與微軟(Microsoft)也在等候采購(gòu)機(jī)器學(xué)習(xí)專(zhuān)屬系統(tǒng)單晶片。

更多資訊請(qǐng)關(guān)注電力電子頻道

中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(m.u63ivq3.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問(wèn)題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國(guó)傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽(yáng)科技有限公司

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺(jué)
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0