谷歌合并Brain和DeepMind,加速人工智能技術(shù)研究

時間:2023-04-26

來源:電子發(fā)燒友

導(dǎo)語:日前,谷歌母公司Alphabet表示合并旗下兩個主要的人工智能研究部門——Google Brain(谷歌大腦)和DeepMind。新部門名為Google DeepMind,將由DeepMind的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Demis Hassabis領(lǐng)導(dǎo)。

  日前,谷歌母公司Alphabet表示合并旗下兩個主要的人工智能研究部門——Google Brain(谷歌大腦)和DeepMind。新部門名為Google DeepMind,將由DeepMind的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Demis Hassabis領(lǐng)導(dǎo)。

  同時,Brain團(tuán)隊(duì)的聯(lián)合創(chuàng)始人Jeff Dean將接任谷歌研究院(Google Research)和Google DeepMind首席科學(xué)家一職。谷歌表示,Dean將領(lǐng)導(dǎo)該公司“與AI有關(guān)的最關(guān)鍵和最具戰(zhàn)略性的技術(shù)項(xiàng)目”,包括一系列新的強(qiáng)大AI項(xiàng)目。

  谷歌在人工智能領(lǐng)域的領(lǐng)先地位

  一直以來,谷歌都走在人工智能開發(fā)浪潮的前沿,引領(lǐng)著人工智能技術(shù)的應(yīng)用。谷歌大腦是谷歌公司內(nèi)部的一個重要項(xiàng)目,旨在推動人工智能的研究和發(fā)展。該項(xiàng)目始于2011年,由谷歌工程師Andrew Ng創(chuàng)立。

  谷歌大腦項(xiàng)目在深度學(xué)習(xí)領(lǐng)域做出了很多重要貢獻(xiàn)。他們提出了一系列先進(jìn)的神經(jīng)網(wǎng)絡(luò)模型和算法,如深度置信網(wǎng)絡(luò)(DBN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)等,這些技術(shù)的應(yīng)用已經(jīng)廣泛地應(yīng)用于圖像識別、語音識別和自然語言處理等領(lǐng)域。

  大家熟知的TensorFlow,最初就是由谷歌大腦團(tuán)隊(duì)開發(fā),用于Google的研究和產(chǎn)品生產(chǎn),于2015年11月9日開源發(fā)布。TensorFlow是一個開源軟件庫,用于各種感知和語言理解任務(wù)的機(jī)器學(xué)習(xí)。目前TensorFlow被50個團(tuán)隊(duì)用于研究和生產(chǎn)許多谷歌的商業(yè)產(chǎn)品,例如語音識別、谷歌郵箱、谷歌相冊和谷歌的搜索引擎。

  DeepMind是一家AI初創(chuàng)公司,成立于2010年,由著名 AI 研究者、游戲設(shè)計師 Demis Hassabis 等人聯(lián)合創(chuàng)立,致力于將機(jī)器學(xué)習(xí)和系統(tǒng)神經(jīng)科學(xué)的最先進(jìn)技術(shù)結(jié)合起來,建立強(qiáng)大的通用學(xué)習(xí)算法。最初成果主要用于模擬、游戲開發(fā)等領(lǐng)域。

  2014年,谷歌以 6 億美元的價格收購了 DeepMind。2016 年 3 月,DeepMind 開發(fā)的 AI 程序 AlphaGo 以 4:1 擊敗韓國圍棋冠軍李世石,成為近年來 AI 領(lǐng)域的里程碑事件。

  在長期人工智能技術(shù)研究積累下,2017年,谷歌提出了Transformer 模型,這是一種采用自注意力機(jī)制的深度學(xué)習(xí)模型,旨在處理自然語言等順序輸入數(shù)據(jù),可應(yīng)用于翻譯、文本摘要等任務(wù),可并行處理輸入數(shù)據(jù)的優(yōu)勢,使得它成為了自然語言處理問題的首選模型,這也促成了BERT、GPT等預(yù)訓(xùn)練模型的發(fā)展。

  Transformer模型推出一年后,谷歌在2018年發(fā)布了BERT(Bidirectional Encoder Representations from Transformers),翻譯過來是“基于變換器的雙向編碼器表示技術(shù)”,是一種用于自然語言處理的預(yù)訓(xùn)練技術(shù)。

  2021年,谷歌又發(fā)布了兩項(xiàng)更強(qiáng)的 AI 技術(shù),分別是對話應(yīng)用語言模型 LaMDA (Language Model for Dialogue Applications) 和多任務(wù)統(tǒng)一模型 MUM (Mutitask Unified Model)。LaMDA 和 MUM 和 BERT、GPT一樣,都是基于 Transformer 模型。

  LaMDA像是一個對話機(jī)器人,MUM是加強(qiáng)版的BERT,性能提高1000倍,還是個多模態(tài)學(xué)習(xí)模型,意味著它不僅可以輸入文字,還能理解圖片、音頻甚至視頻。

  谷歌欲加速人工智能技術(shù)研究

  可以看到,在過去十幾年時間里,谷歌一直引領(lǐng)人工智能技術(shù)發(fā)展。然而,直到2022年11月,OpenAI推出的ChatGPT橫空出世,格局由此被打破。

  尤其是谷歌在搜索領(lǐng)域的競爭對手微軟,作為OpenAI的投資方,率先使用ChatGPT升級了必應(yīng)搜索引擎,及辦公軟件,這讓谷歌感覺到了危機(jī)。

  今年2月,谷歌母公司Alphabet宣布推出Bard,旨在與ChatGPT競爭。不過,由于Bard在一段宣傳視頻中分享了不準(zhǔn)確的信息,而未能給谷歌帶來積極影響。

  此次,谷歌合并兩個主要的人工智能研究部門——Google Brain(谷歌大腦)和DeepMind的舉措,也正是為了能夠加快公司在人工智能領(lǐng)域的行進(jìn)步伐。

  該公司首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)發(fā)布博客稱,此舉匯集了谷歌在人工智能領(lǐng)域的兩個領(lǐng)先研究小組,在過去十年中,其在人工智能領(lǐng)域的成就涵蓋了AlphaGo、Transformers、深度強(qiáng)化學(xué)習(xí)和分布式系統(tǒng)和軟件框架等。皮查伊認(rèn)為,在谷歌計算資源的支持下,將所有人才整合到一個團(tuán)隊(duì)中,將能夠顯著加快公司在AI方面的進(jìn)步。

  小結(jié)

  目前來看,雖然谷歌推出的Bard不及ChatGPT影響力大,然而可以看到,谷歌在人工智能各方面都有深厚積累,包括芯片、計算資源、軟件、模型算法等等。如今,谷歌將兩個主要的人工智能部門合并,集中人力,重點(diǎn)發(fā)力人工智能研究,未來的進(jìn)展值得期待。

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(m.u63ivq3.com)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運(yùn)動控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0