近日,關(guān)于Facebook關(guān)?!笆Э亍盇I項(xiàng)目的新聞滿天飛,更有媒體爆出機(jī)器人開始使用自己的語言進(jìn)行對話,人們開始恐慌機(jī)器人失控之后會主宰世界,《連線》雜志發(fā)表文章明確表示,這是一場鬧劇,有些媒體曲解了原義,F(xiàn)acebook的聊天機(jī)器人不會主宰世界。
似乎在文化圈子里,機(jī)器這個(gè)概念一直與創(chuàng)造者相對立,而且這個(gè)問題現(xiàn)在已經(jīng)變得司空見慣了,還頻頻以各種驚人的標(biāo)題出現(xiàn)在很多媒體上。了解這種局面可以幫助你弄懂,為什么近來一些新聞?lì)^條要聳人聽聞地刻畫自己一手創(chuàng)造的機(jī)器人。最近,有媒體爆出機(jī)器人開始使用自己的語言進(jìn)行對話,不過在簡單的幾句對話后,F(xiàn)acebook公司的人工智能研究員就“惶恐不安地”,“被迫”“殺死了”那些“令人毛骨悚然的”機(jī)器人。
但事實(shí)并非如此。Facebook公司進(jìn)行的一項(xiàng)實(shí)驗(yàn)的確制造了能夠語無倫次說些句子的機(jī)器人??墒沁@些機(jī)器人不太聰明,它們的表現(xiàn)不算出人意料,更沒有拉響人類文明的警報(bào)。沒有哪位Facebook人工智能實(shí)驗(yàn)室的工作人員驚慌失措,你也不該為此驚恐。但媒體出格的報(bào)道可能對我們的未來更加不利。隨著機(jī)器學(xué)習(xí)與人工智能在生活中更為普遍,影響力更大,懂得這些科技的潛力和現(xiàn)狀變得至為重要??紤]到機(jī)器算法已經(jīng)在戰(zhàn)爭、刑事司法和人才市場中發(fā)揮核心作用,更是應(yīng)該如此。
至于最近在Facebook公司的人工智能研究實(shí)驗(yàn)室發(fā)生了什么,真相其實(shí)是這樣的——Facebook公司的研究人員本打算開始制造可能同人類協(xié)商的聊天機(jī)器人。他們的想法是:對機(jī)器人來說,要想更密切地配合人類工作,就必須學(xué)會協(xié)商與合作。他們先從小處著手,設(shè)計(jì)一個(gè)簡單的游戲,讓兩個(gè)游戲玩家劃分一些收集起來的同類物品,比如帽子、球和圖書。
研究團(tuán)隊(duì)用兩個(gè)步驟的程序教導(dǎo)機(jī)器人玩這個(gè)游戲。第一步,向電腦中輸入人類玩數(shù)千局游戲的對話,讓系統(tǒng)對協(xié)商所用的語言形成感知,第二部,讓機(jī)器人運(yùn)用強(qiáng)化學(xué)習(xí)的一種技術(shù)形式——試錯(cuò)磨練技能。強(qiáng)化學(xué)習(xí)技術(shù)曾幫助谷歌的圍棋機(jī)器人AlphaGo擊敗柯潔這樣的當(dāng)今世界職業(yè)圍棋第一人。
當(dāng)兩個(gè)運(yùn)用強(qiáng)化學(xué)習(xí)的機(jī)器人一起玩游戲,它們最后再也沒有用上人類可以識別的語句。或者就像Facebook公司的研究人員在技術(shù)報(bào)告中不帶任何感情描述的那樣:“我們發(fā)現(xiàn),把兩個(gè)機(jī)器人的參數(shù)全都更新造成背離人類語言?!迸e個(gè)讓人印象深刻的例子,比如兩個(gè)機(jī)器人可能這樣對話:
“鮑勃:我可以我其他一切事……”
愛麗絲:球?qū)ξ襾碚f對我來說對我來說對我來說對我來說對我來說對我來說對我來說是零。
如此玩笑一般的詭異對話有時(shí)還能商量出個(gè)所以然,顯然這是因?yàn)闄C(jī)器人學(xué)會運(yùn)用一些技巧,比如重復(fù)自己想溝通的內(nèi)容。聽起來挺有意思,但也是一種失敗。Facebook公司的研究人員希望創(chuàng)造能做人類玩伴的機(jī)器人,于是他們重新設(shè)計(jì)了訓(xùn)練機(jī)制,保證機(jī)器人一直使用可識別的語言。媒體就對這一改變添油加醋,炮制了引發(fā)擔(dān)憂的頭條,高呼研究人員不得不停止實(shí)驗(yàn)。
先別急著下結(jié)論,從本周二英國小報(bào)《太陽報(bào)》頭版赫然其上的大標(biāo)題上,你有沒有感到,F(xiàn)acebook公司的這次事件和《終結(jié)者》異曲同工?那部經(jīng)典科幻片講的是,一種有自我意識的人工智能系統(tǒng)發(fā)起了一場反人類的戰(zhàn)場,給人類帶來災(zāi)難。
其實(shí)不然。Facebook公司設(shè)計(jì)這些機(jī)器人只是為了做一件事:在玩一款簡單的游戲時(shí),盡可能多得分。它們就是那么做的。因?yàn)槌绦虿]有指定它們堅(jiān)持使用人類可以識別的英語,我們也不該對它們的語言無法識別感到意外。
這和人工智能研究者們第一次創(chuàng)造的機(jī)器人截然不同,那時(shí)候的機(jī)器人能隨機(jī)以自己的方式交流。今年3月《連線》雜志報(bào)道過,特斯拉和SpaceX公司首席執(zhí)行官馬斯克支持的非營利組織OpenAI進(jìn)行了一些實(shí)驗(yàn),讓機(jī)器人開發(fā)屬于自己的虛擬世界“語言”。本周一,F(xiàn)acebook公司的人工智能研究員DhruvBatra還在一篇博文里慨嘆,媒體歪曲了他的工作,用的都是幾十年前計(jì)算機(jī)科幻文學(xué)里有的老調(diào)陳詞。
Facebook公司的實(shí)驗(yàn)非但不是駭人聽聞的故事,實(shí)際上還反映出人工智能今至今日的局限。文字對目前的機(jī)器學(xué)習(xí)系統(tǒng)形同虛設(shè),這限制了這類系統(tǒng)的功用和威力。除非能找到一種編程方式,讓程序確切表達(dá)個(gè)人愿望,否則你就不可能克服這種缺陷。這可以解釋,為什么一些研究人員致力于界定人工智能系統(tǒng)目標(biāo)的方式不是代碼,而是人類的反饋。
Facebook公司這項(xiàng)實(shí)驗(yàn)之中最有意思的是什么?只要開始講英語,機(jī)器人倒是真的能夠擁有與人類協(xié)商的能力。這不是壞事,電腦本來不也是很擅長進(jìn)行你來我往的用戶對話交互嗎?如果你和蘋果公司的機(jī)密語音助手Siri或者亞馬遜公司的語言服務(wù)Alexa交談過,可能就會了解。
有趣的是,在一致確定收集某些東西以前,F(xiàn)acebook公司的機(jī)器人有時(shí)會自稱對一些并不是真想要的東西感興趣。這是不是說明機(jī)器人可以撒謊?這算不算Facebook人工智能實(shí)驗(yàn)室里真正恐怖的事?非也。你不該擔(dān)心出現(xiàn)一些虛幻的智能機(jī)器人,就像今年年初戰(zhàn)勝德州撲克的Libratus那樣。Facebook公司的機(jī)器人和Libratus在嚴(yán)格界定的環(huán)境下都可以表現(xiàn)出色,卻都沒有接近于人類了解世界的自主意識和正常的判斷。正是有了那些本領(lǐng),人類過去面對新環(huán)境才能運(yùn)用技能和知識。機(jī)器學(xué)習(xí)的研究令人著迷,它完全有改變世界的潛力。而《終結(jié)者》還只屬于科幻世界。
更多資訊請關(guān)注工業(yè)機(jī)器人頻道