霍金擔心人工智能并不讓人感到意外——他從幾年前就開始提出類似的擔憂了。但是對于人工智能軍備競賽,顯然這已經不是短期問題,而是需要引起我們的長期關注了。
當然,人工智能競賽肯定還會在各個領域里繼續(xù),比如微軟利用人工智能提升應用程序,還有很多公司都在探索自動駕駛汽車。不過,除了霍金之外,SpaceX創(chuàng)始人埃隆馬斯克,蘋果聯(lián)合創(chuàng)始人史蒂夫沃茲尼亞克,以及其他數千個科技界人士都在密切關注人工智能在軍事領域中的應用。
在接受拉里金的“LarryKingNow”節(jié)目線上采訪時,霍金承認人工智能可以給人類帶來很多好處。他說:
想象一下,人工智能算法可以快速評估科學家的想法,更早監(jiān)測出癌癥,甚至預測股票市場。
但霍金同時也表示,人工智能必須要受到嚴格監(jiān)管。
但是,對于未來學家雷庫茲韋爾提出只需幾十年就能實現(xiàn)人類思維和機器的融合,霍金并不認同,他說:
我覺得雷庫茲韋爾的想法過于簡單化、也過于樂觀了。指數級增長不可能一直持續(xù)下去。過去也有發(fā)生過的類似預測,有些我們無法預測的事情會打斷人工智能的發(fā)展。我不認為人工智能必然會良性發(fā)展。一旦到了某個關鍵階段,機器能夠實現(xiàn)自我進化,我們就不能預測他們的目標是否會和人類的保持一致。
這就是霍金和庫茲韋爾彼此之間的一場隔空辯論?;氐?014年,庫茲韋爾曾表示霍金本人就是人工智能技術的受益者——比如,語音合成軟件,幫助他克服了自己衰弱的神經性變異疾病。同時,他還指出在認識人工智能前景時,人類通常會出于危險考慮而設置一個“道德律令”。
拉里金的采訪安排在了本屆Starmus大會上,今年這屆科學大會被安排在了加那利群島,目的是為了慶?;艚鸬娜松褪聵I(yè)所取得的成就?;艚鹗鞘澜缟洗婊顣r間最長,也是最著名的肌萎縮側索硬化癥患者,明年一月,他就75歲了。
下面是本次采訪其他一些主要內容:
霍金說,人工智能不是人類所遇到的唯一威脅,人口膨脹和空氣污染(包括不斷增長的溫室氣體排放)也是最需要引起人們注意的問題。“現(xiàn)在關注如何避免全球變暖的問題是不是已經太晚了呢?”霍金問道。對于這些問題,他看上去并不樂觀。拉里金詢問霍金從六年前的上一次采訪至今,有什么事情發(fā)生了變化,霍金回答說:“我們人類當然也變得不那么貪婪和愚蠢了。”
霍金最著名的,就是他提出的黑洞理論。最近他又發(fā)表了一篇論文,闡述了黑洞不會摧毀所有被它吸入的東西。但最讓霍金感到驚訝的是,他發(fā)現(xiàn)了一些加速宇宙膨脹的神秘因素,這個因素被稱為暗能量,但是霍金表示之所以叫這個名字,是因為它只是一個名字,用來命名我們還不明白東西的而已。
霍金認為,宇宙中最神秘的問題就是關于宇宙本身的意義。他說道:“為什么會有宇宙和所有自然法則的存在?他們有存在的必要嗎?在某種意義上,他們肯定有存在的必要,否則我們就不會在這里問這樣的問題了。不過,是否還會有其他更深層次的原因嗎?”
幾年前,霍金曾說過他覺得女人完全就是一個“迷”——雖然有些批評家認為霍金這么說帶有一點性別歧視的色彩。拉里金在采訪時有提到了這件事,霍金回答說:“從那時候開始,我已經從女人身上學到了很多東西。”此外,霍金還提醒拉里金,他已經和七個不同的女人結了八次婚。霍金問道:“經驗越多,是不是就越容易成功?”拉里金回答:“你說的沒錯,對于這問題,我覺得該回答——是的。”
更多資訊請關注工業(yè)機器人頻道