日前,谷歌母公司Alphabet表示合并旗下兩個主要的人工智能研究部門——Google Brain(谷歌大腦)和DeepMind。新部門名為Google DeepMind,將由DeepMind的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Demis Hassabis領(lǐng)導(dǎo)。
同時,Brain團(tuán)隊(duì)的聯(lián)合創(chuàng)始人Jeff Dean將接任谷歌研究院(Google Research)和Google DeepMind首席科學(xué)家一職。谷歌表示,Dean將領(lǐng)導(dǎo)該公司“與AI有關(guān)的最關(guān)鍵和最具戰(zhàn)略性的技術(shù)項(xiàng)目”,包括一系列新的強(qiáng)大AI項(xiàng)目。
谷歌在人工智能領(lǐng)域的領(lǐng)先地位
一直以來,谷歌都走在人工智能開發(fā)浪潮的前沿,引領(lǐng)著人工智能技術(shù)的應(yīng)用。谷歌大腦是谷歌公司內(nèi)部的一個重要項(xiàng)目,旨在推動人工智能的研究和發(fā)展。該項(xiàng)目始于2011年,由谷歌工程師Andrew Ng創(chuàng)立。
谷歌大腦項(xiàng)目在深度學(xué)習(xí)領(lǐng)域做出了很多重要貢獻(xiàn)。他們提出了一系列先進(jìn)的神經(jīng)網(wǎng)絡(luò)模型和算法,如深度置信網(wǎng)絡(luò)(DBN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)等,這些技術(shù)的應(yīng)用已經(jīng)廣泛地應(yīng)用于圖像識別、語音識別和自然語言處理等領(lǐng)域。
大家熟知的TensorFlow,最初就是由谷歌大腦團(tuán)隊(duì)開發(fā),用于Google的研究和產(chǎn)品生產(chǎn),于2015年11月9日開源發(fā)布。TensorFlow是一個開源軟件庫,用于各種感知和語言理解任務(wù)的機(jī)器學(xué)習(xí)。目前TensorFlow被50個團(tuán)隊(duì)用于研究和生產(chǎn)許多谷歌的商業(yè)產(chǎn)品,例如語音識別、谷歌郵箱、谷歌相冊和谷歌的搜索引擎。
DeepMind是一家AI初創(chuàng)公司,成立于2010年,由著名 AI 研究者、游戲設(shè)計師 Demis Hassabis 等人聯(lián)合創(chuàng)立,致力于將機(jī)器學(xué)習(xí)和系統(tǒng)神經(jīng)科學(xué)的最先進(jìn)技術(shù)結(jié)合起來,建立強(qiáng)大的通用學(xué)習(xí)算法。最初成果主要用于模擬、游戲開發(fā)等領(lǐng)域。
2014年,谷歌以 6 億美元的價格收購了 DeepMind。2016 年 3 月,DeepMind 開發(fā)的 AI 程序 AlphaGo 以 4:1 擊敗韓國圍棋冠軍李世石,成為近年來 AI 領(lǐng)域的里程碑事件。
在長期人工智能技術(shù)研究積累下,2017年,谷歌提出了Transformer 模型,這是一種采用自注意力機(jī)制的深度學(xué)習(xí)模型,旨在處理自然語言等順序輸入數(shù)據(jù),可應(yīng)用于翻譯、文本摘要等任務(wù),可并行處理輸入數(shù)據(jù)的優(yōu)勢,使得它成為了自然語言處理問題的首選模型,這也促成了BERT、GPT等預(yù)訓(xùn)練模型的發(fā)展。
Transformer模型推出一年后,谷歌在2018年發(fā)布了BERT(Bidirectional Encoder Representations from Transformers),翻譯過來是“基于變換器的雙向編碼器表示技術(shù)”,是一種用于自然語言處理的預(yù)訓(xùn)練技術(shù)。
2021年,谷歌又發(fā)布了兩項(xiàng)更強(qiáng)的 AI 技術(shù),分別是對話應(yīng)用語言模型 LaMDA (Language Model for Dialogue Applications) 和多任務(wù)統(tǒng)一模型 MUM (Mutitask Unified Model)。LaMDA 和 MUM 和 BERT、GPT一樣,都是基于 Transformer 模型。
LaMDA像是一個對話機(jī)器人,MUM是加強(qiáng)版的BERT,性能提高1000倍,還是個多模態(tài)學(xué)習(xí)模型,意味著它不僅可以輸入文字,還能理解圖片、音頻甚至視頻。
谷歌欲加速人工智能技術(shù)研究
可以看到,在過去十幾年時間里,谷歌一直引領(lǐng)人工智能技術(shù)發(fā)展。然而,直到2022年11月,OpenAI推出的ChatGPT橫空出世,格局由此被打破。
尤其是谷歌在搜索領(lǐng)域的競爭對手微軟,作為OpenAI的投資方,率先使用ChatGPT升級了必應(yīng)搜索引擎,及辦公軟件,這讓谷歌感覺到了危機(jī)。
今年2月,谷歌母公司Alphabet宣布推出Bard,旨在與ChatGPT競爭。不過,由于Bard在一段宣傳視頻中分享了不準(zhǔn)確的信息,而未能給谷歌帶來積極影響。
此次,谷歌合并兩個主要的人工智能研究部門——Google Brain(谷歌大腦)和DeepMind的舉措,也正是為了能夠加快公司在人工智能領(lǐng)域的行進(jìn)步伐。
該公司首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)發(fā)布博客稱,此舉匯集了谷歌在人工智能領(lǐng)域的兩個領(lǐng)先研究小組,在過去十年中,其在人工智能領(lǐng)域的成就涵蓋了AlphaGo、Transformers、深度強(qiáng)化學(xué)習(xí)和分布式系統(tǒng)和軟件框架等。皮查伊認(rèn)為,在谷歌計算資源的支持下,將所有人才整合到一個團(tuán)隊(duì)中,將能夠顯著加快公司在AI方面的進(jìn)步。
小結(jié)
目前來看,雖然谷歌推出的Bard不及ChatGPT影響力大,然而可以看到,谷歌在人工智能各方面都有深厚積累,包括芯片、計算資源、軟件、模型算法等等。如今,谷歌將兩個主要的人工智能部門合并,集中人力,重點(diǎn)發(fā)力人工智能研究,未來的進(jìn)展值得期待。