今年兩會(huì),百度李彥宏再次提出了有關(guān)人工智能的體驗(yàn),與此同時(shí)其他科技大佬對(duì)于人工智能的應(yīng)用也越發(fā)關(guān)注起來。
小米雷軍提出要在國家層面進(jìn)行人工智能發(fā)展的頂層設(shè)計(jì),科大訊飛劉慶峰一口氣提出了人工智能有關(guān)的九條建議,騰訊CEO馬化騰也承認(rèn),人工智能技術(shù)有可能成為戰(zhàn)略上的制高點(diǎn),就連宗慶后、郭廣昌等企業(yè)大佬也在不同場合發(fā)表了對(duì)人工智能的看法。
不可否認(rèn),去年Google旗下的AlphaGo于極之復(fù)雜的圍棋戰(zhàn)中擊敗人類,讓人們對(duì)于AI的關(guān)注達(dá)到了前所未有的高潮,各種論調(diào)此起彼伏。
一些嶄新的AI技術(shù)有可能會(huì)取代人們的工作,加之許多電影里設(shè)想出現(xiàn)的人造物種反抗人類的畫面,更是引起人們的一絲恐懼,人工智能是否如此駭人,將關(guān)系到人類的存亡?
作為人工智能(AI)技術(shù)的支持者,著名物理學(xué)家史蒂芬·霍金(StephenHawking)對(duì)于AI帶來的潛在挑戰(zhàn)也感到擔(dān)憂。他最近在接受英國《倫敦時(shí)報(bào)》采訪時(shí),對(duì)未來表示樂觀,不過他對(duì)AI的崛起和其他全球性威脅感到擔(dān)憂。
他認(rèn)為,各國應(yīng)該共同采取行動(dòng),甚至組建“世界性政府”?;艚鹫f:“我們需要以更快的速度識(shí)別這類威脅,并在它們失控前采取行動(dòng)。這可能意味著,我們需要組建某種形式上的世界性政府?!笨墒腔艚鹨簿娣Q,這種方法有可能催生“暴政”。
比爾。蓋茨曾直言不諱:“我屬于擔(dān)心超級(jí)智能的陣營。最初,機(jī)器可以為我們做很多事情,而非超級(jí)智能。如果我們能夠管理好它,它應(yīng)該可以發(fā)揮積極作用。但是數(shù)十年后,人工智能將變得足夠聰明,值得我們?nèi)?dān)憂。”
英國科學(xué)協(xié)會(huì)主席戴維·威利茨(avidWilletts)說:“如此多的人對(duì)人工智能感到憂慮并不令人感到驚訝。創(chuàng)新經(jīng)常令人感到恐懼,但請(qǐng)記住,經(jīng)濟(jì)和世界都在不斷變化,新興技術(shù)的崛起和采用都需要時(shí)間。這項(xiàng)研究顯示,在我們持續(xù)創(chuàng)新時(shí),也需要聆聽公眾的恐懼?!?/p>
除此之外,還有眾多大佬也發(fā)表了其對(duì)于人工智能的看法,讓我們一起來看一看吧。
英國牛津大學(xué)教授、人類未來研究所創(chuàng)始人尼克·博斯特羅姆(NickBostrom)寫道:“我認(rèn)為改善全球治理很有必要,不僅可應(yīng)對(duì)AI帶來的危險(xiǎn)挑戰(zhàn),也可解決擺在我們面前的其他巨大挑戰(zhàn)。隨著世界不斷分化,我們?cè)诓粩嚅_發(fā)出越來越強(qiáng)大的工具,我不確定人類是否能夠無限期生存下去?!?/p>
中國科學(xué)院院士、清華大學(xué)教授姚期智認(rèn)為,愈是重復(fù)及簡單的工作,被AI或其他科技取代的機(jī)會(huì)愈高,這于文明進(jìn)步的過程中難以避免。不過他亦強(qiáng)調(diào),AI能力縱使可以非常強(qiáng)大,最終是由人類決定的,“它可以貢獻(xiàn)社會(huì),也可以被人利用來做一些破壞社會(huì)的事情,所以要說的話人類其實(shí)更加危險(xiǎn)?!?/p>
計(jì)算機(jī)科學(xué)教授、人工智能先驅(qū)StuartRussell表示,“危險(xiǎn)不會(huì)來自于機(jī)器突然發(fā)展出的惡意的自主意識(shí),”他說,“重要的是你要知道,我們不是要阻止這樣的事,因?yàn)槲覀儗?duì)于意識(shí)本身是什么還一無所知?!?/p>
“問題不在于意識(shí),而在于權(quán)限。我們賦予機(jī)器很大的權(quán)限,希望它來完成某個(gè)目標(biāo),但它在完成目標(biāo)的過程中可能會(huì)引起災(zāi)難。”
“一旦你把AI放到真實(shí)世界中,放到無人駕駛汽車、數(shù)字助理等應(yīng)用中……當(dāng)AI開始幫你購買對(duì)你利益有影響的物品、幫你取消約會(huì)時(shí),它們的價(jià)值觀立場必須保證和人類一致?!盧ussell說。
為了應(yīng)對(duì)這些問題,Russell和研究中心的同事打算讓AI系統(tǒng)觀察人類的行為,并嘗試?yán)斫馊祟惖恼嬲康氖鞘裁?,然后根?jù)人類的目的來行事,并且從失誤中吸取經(jīng)驗(yàn)。摒棄了為機(jī)器提供一長串需要遵守的規(guī)則的做法,他們只告訴機(jī)器主要的目標(biāo)就是做人類想讓他們做的事。
硅谷鋼鐵俠馬斯克表示,要想在AI時(shí)代不被淘汰,人類需要與機(jī)器相結(jié)合,進(jìn)化成某種半機(jī)器人。他認(rèn)為,計(jì)算機(jī)在交流時(shí)每秒數(shù)據(jù)交換能達(dá)到萬億比特,但人類靠手指輸入只能達(dá)到10比特。AI崛起后,人類會(huì)變得非常沒用,因此必須與機(jī)器結(jié)合來提高自己。
在發(fā)言中,馬斯克再次表達(dá)了它對(duì)“深度AI”的恐懼,這種AI比自動(dòng)駕駛車輛背后的更加高級(jí),因?yàn)樗呀?jīng)有了通用性,因此會(huì)比世界上最聰明的人還聰明。馬斯克認(rèn)為這種AI的出現(xiàn)會(huì)使人類陷入危險(xiǎn)境地。
由此可見,就現(xiàn)在的科技水平來講,未來一段時(shí)間內(nèi)不會(huì)有什么潛在危險(xiǎn),但大佬們對(duì)于人工智能的擔(dān)憂也不無道理。任何事情都是雙向的,人們發(fā)明了這么多的東西,有利也有弊,但是社會(huì)是向前發(fā)展的,人工智能的趨勢(shì)不會(huì)停止,要看人們?cè)趺慈ダ昧恕?/p>
更多資訊請(qǐng)關(guān)注工業(yè)機(jī)器人頻道