大多數(shù)人會對智能機器人可能背叛人類而心懷恐懼。但誰又能保護它們,防止它們自相殘殺呢?一位學者問道。
我們必須考慮到智能機器人自身群體之間的相互影響以及這種相互影響對它們的創(chuàng)造者——人類的影響。
在不遠的未來,人工智能機器人將具備真情實感。無論何種形式的人工智能,具有思維意識的智能機器都將會對人類社會產(chǎn)生深遠的影響。
微軟聯(lián)合創(chuàng)始人比爾?蓋茨和物理學家史蒂芬?霍金近來警告人們,智能機器人將會變得異常強大,以至于導致人類無法控制的危險。智能機器的道德難題以及它們和人類之間的關(guān)系一直都是科幻電影的主題,從1982年的《銀翼殺手》,到今年的《機械姬》(ExMachina)中,無不凸顯著此類主題。
對人工智能的理論分析和假想分析傾向于關(guān)注人機交互的問題:機器人會令我們的生活更便利嗎?它們有危險嗎?它們是否會對人類造成威脅?
然而,這些問題忽略了至關(guān)重要的一點。我們必須考慮到智能機器人自身群體之間的相互影響以及這種相互影響對它們的創(chuàng)造者——人類的影響。例如,如果我們允許情感機器人相互之間不公正對待彼此——即使這些‘違法行為’對人類權(quán)益沒有直接影響——這或許也反映我們?nèi)诵缘娜觞c。這種哲學悖論為“機器權(quán)利”的概念打下基礎(chǔ)。
有關(guān)機器人發(fā)展的討論大多是基于科幻小說家艾薩克?阿西莫夫所提出的機器人三定律之上:第一,機器人不得傷害人類;第二,機器人必須服從人類;第三,機器人必須能自我保護。但這些規(guī)則并未提及機器人之間如何相處。如果一個機器人為了維護人類的權(quán)利而忽視另一個具有情感思維的智能機器的權(quán)利,無疑這將是不合理的。
一些展現(xiàn)出思考行為的動物已經(jīng)享有被保護的權(quán)利,并且,人類社會早已對讓動物廝打取悅觀眾的斗獸表演所不齒。按這個思路,情感機器人可能要比動物智慧的多,因此也不應被投入角斗場中相互殘殺以取樂人類。
當然,軍事機器人已經(jīng)被用于局部沖突中。但除了合法戰(zhàn)爭,強迫人工智能和機器人參與戰(zhàn)爭或虐待他們,對人類的道德、倫理和心理健康是有害的。
雖然智能機器人目前還僅出現(xiàn)在科幻小說中,但現(xiàn)在討論這些嚴肅的話題并不為時尚早。如英國,已經(jīng)為機器人設計者提出一套準則。這強調(diào)了機器人只是工廠制品,人類才是責任承擔者,而不是機器人。
科學家,哲學家,投資者和政策制定者應該更進一步,并應該考慮到機器人之間以及人工智能之間的相互影響。他們應該為AI的國際憲章給出提案,類似于聯(lián)合國的世界人權(quán)宣言的提案。這將促使人們從道德的層面出發(fā),引導機器人和人工智能工程學的研究和發(fā)展。
國家和國際技術(shù)政策應當為當前旨在開發(fā)安全人工智能的程序中引入“人工智能面向人工智能”(AIonAI)概念。我們必須參與到教育活動和研究中,并繼續(xù)提升哲學意識。甚至設立一個年度‘最佳無私AI設計’的AIonAI獎項。
社會科學家和哲學家應在機器人和計算機的研究前沿并肩作戰(zhàn)。除了投資AI開發(fā),技術(shù)投資者可以支持AIonAI概念的倫理研究。醫(yī)療投資者,如WellcomeTrust早已遵循該模式:在大力發(fā)展前沿保健學的同時,對倫理學和醫(yī)藥歷史學展開研究。
目前以及未來的人工智能和機器人研究團體需要從人工智能之間的相互影響的角度考慮。通過交叉領(lǐng)域的學位課程,下一代的機器人工程師和人工智能研究人員應該承認并接受AIonAI準則。例如,許多想進英國政界的人會參加PPE(政治學,哲學和經(jīng)濟學)課程,而對于想在機器人和人工智能有所建樹的學生則應該參加CEP(計算機科學,工程學和哲學)課程學習。
此外,我們還應該把阿西莫夫的機器人三定律推廣到人工智能之間的相互影響上。為此,我提出一個第四定律:所有具有人類一樣邏輯思維和良知的機器人應該彼此和睦相處。
不要小看具有人造思維機器的潛能。人類正迎來一種新的智能種族的誕生。無論這種智能是不是‘人造的’,這種新的數(shù)字化“公民”都應該享有尊嚴和權(quán)利,而建立保護他們的相應法律也是十分重要的。
更多資訊請關(guān)注工業(yè)機器人頻道