5月18日消息,據(jù)technologyreview報道,如果說人工智能(AI)能夠迅速蠶食掉軟件,那么谷歌可能擁有最大的胃口。在今年的I/O開發(fā)者大會上,谷歌發(fā)布了更為強大的芯片和以機器學習為基礎(chǔ)的超級計算機,它們將有助于谷歌成為以AI為重點的硬件制造商。
在I/O開發(fā)者大會上,谷歌首席執(zhí)行官桑達爾·皮查伊(SundarPichai)介紹了谷歌研發(fā)的新計算機處理器,用于支持機器學習技術(shù)。近年來,機器學習已經(jīng)在IT行業(yè)掀起強大風暴。此舉也反映出快速進步的AI正如何改變谷歌本身,已經(jīng)有可靠跡象顯示,谷歌希望能領(lǐng)導(dǎo)AI軟件和硬件等相關(guān)方面的發(fā)展趨勢。
或許最重要的是,或者說至少對于研究機器學習技術(shù)的人來說,谷歌新的處理器不僅可以更快的速度執(zhí)行任務(wù),它還能被以令人難以置信的效率訓練。谷歌新處理器名為云張量處理單元(CloudTensorProcessingUnit),它以谷歌的開源機器學習框架TensorFlow的名義命名。
訓練是機器學習領(lǐng)域最基礎(chǔ)的部分。舉例來說,為了開發(fā)出能夠識別照片中熱狗的算法,你可能需要訓練算法識別數(shù)以萬計的熱狗照片,直到其學會區(qū)分。但是訓練某個大模型的運算非常復(fù)雜,而且這種訓練可能需要持續(xù)數(shù)天甚至數(shù)周。
皮查伊還在開發(fā)者大會上公布了機器學習超級計算機,或稱CloudTPUPod,它以CloudTPU集群為基礎(chǔ),可高速處理數(shù)據(jù)連接。皮查伊稱,谷歌也在研發(fā)TensorFlowResearchCloud,它由數(shù)以千計的TPU組成。皮查伊表示:“我們正建立我們所謂的AI優(yōu)先數(shù)據(jù)中心,CloudTPU正幫助優(yōu)化訓練和推理,這為AI取得顯著進步打下基礎(chǔ)?!惫雀鑼⒅圃?000套CloudTPU系統(tǒng),為那些愿意公開分享自己研發(fā)工作細節(jié)的AI研究人員提供支持。
皮查伊在主題演講中還宣布多個AI研究計劃,包括努力開發(fā)能夠?qū)W習如何從事耗時工作的算法,包括微調(diào)其他機器學習算法。他還稱,谷歌正為醫(yī)學圖像分析、基因組分析以及分子發(fā)現(xiàn)開發(fā)AI工具。在開發(fā)者大會之前,谷歌高級研究員杰夫·迪恩(JeffDean)表示,這些項目有助于幫助AI進步。他說:“許多頂級研究人員還沒有像他們所希望的那樣,獲得強大的計算能力支持。”
谷歌進軍以AI為重點的硬件和云服務(wù)領(lǐng)域,部分原因是受其自身業(yè)務(wù)加速的驅(qū)動。谷歌已經(jīng)在使用TensorFlow為搜索、語音識別、翻譯以及圖形處理等提供支持。此外,谷歌也在Alphabet子公司DeepMind開發(fā)的智能程序AlphaGo中使用這種技術(shù)。
但從戰(zhàn)略上看,谷歌可能在防止其他公司在機器學習領(lǐng)域取得主導(dǎo)地位。比如專門研發(fā)和制造圖形處理芯片的英偉達,其芯片已經(jīng)開始被用于深度學習領(lǐng)域,并在各種產(chǎn)品中變得越來越突出。為了提供某些措施以衡量其CloudTPU提供的加速表現(xiàn),谷歌表示其翻譯算法可能受到訓練,使用新硬件后比現(xiàn)有硬件速度快得多。32個最好的GPU全天的訓練量,TPUPod只需要發(fā)揮1/8的水平就可在1個下午完成。
谷歌云計算團隊首席科學家、斯坦福大學AI實驗室主管李飛飛(Fei-FeiLi)稱:“這些TPU可提供驚人的128萬億次浮點運算,它們是專為驅(qū)動機器學習技術(shù)的芯片。”與之相比,iPhone6可提供100萬億次浮點運算。谷歌表示,他們還可能為研究人員設(shè)計使用其他硬件的算法,這就是他們所謂的“民主化機器學習”。自從谷歌2015年發(fā)布TensorFlow以來,越來越多的研究人員開始使用它。谷歌宣稱,TensorFlow已經(jīng)成為世界上使用最廣泛的深度學習框架。
機器學習專家目前正處于供不應(yīng)求的狀態(tài),因為許多行業(yè)的公司都希望能夠利用不斷取得進展的AI力量。皮查伊表示,解決這種技術(shù)短缺的方案之一就是開發(fā)機器學習軟件,用以取代AI專家開發(fā)機器學習軟件的部分工作。
在谷歌開發(fā)者大會上,皮查伊公布了谷歌下屬AI研究團隊GoogleBrain正正進行的AutoML項目,研究人員已經(jīng)展示,他們的學習算法可以自動化執(zhí)行特定任務(wù)的機器學習軟件設(shè)計中最棘手的部分工作。在某些情況下,他們的自動化系統(tǒng)還能夠提出媲美人類機器學習專家甚至超越他們的方案。皮查伊表示:“這讓人感到非常興奮,它可以加速整個領(lǐng)域發(fā)展,幫助我們解決今天面對的某些最具挑戰(zhàn)性的問題?!?/p>
皮查伊希望AutoML項目擴大開發(fā)者數(shù)量,他們可通過減少專業(yè)知識要求來更好地利用機器學習。這非常符合谷歌的定位策略,其云計算服務(wù)成為開發(fā)和托管機器學習的最佳平臺。谷歌也正努力在企業(yè)云計算市場吸引更多新客戶,因為谷歌在這個市場落后于亞馬遜和微軟。
AutoML項目的目標是幫助人們更容易使用深度學習技術(shù),谷歌和其他公司正利用它支持語音識別、圖像識別、翻譯以及機器人研究等。深度學習可讓數(shù)據(jù)通過一系列松散的數(shù)學計算層幫助軟件變得更聰明,這種計算層受到生物學啟發(fā),為此被稱為人工神經(jīng)網(wǎng)絡(luò)。谷歌AutoML項目機器學習研究員富國樂(QuocLe)表示,為神經(jīng)網(wǎng)絡(luò)的數(shù)學模型選擇正確的框架非常重要,但卻并不容易。
更多資訊請關(guān)注電力電子頻道