著名作家阿西莫夫1940年在科幻小說中提出了“機器人三原則”:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;機器人必須服從人類的命令,除非這條命令與第一條相矛盾;機器人必須保護自己,除非這種保護與以上兩條相矛盾。今天,人工智能逐漸從科幻走向現(xiàn)實,人們對人工智能可能產生的危害也愈加警惕,希望能夠為其制定準則以確保人工智能科技和產業(yè)向對社會有益的方向順利發(fā)展。
1.以和諧互補的方式鏈接不同的人工智能準則提案
人工智能既是經過數(shù)十年錘煉發(fā)展出來的科學領域,又是改變未來的重要顛覆性技術。人工智能的研究與發(fā)展不僅關系到國家科技、經濟發(fā)展、社會穩(wěn)定,更關系到國家在科技、產業(yè)領域的國際影響與國際局勢。
人工智能在帶來機遇的同時也帶來潛在的風險與隱患。例如應用最為廣泛的深度神經網(wǎng)絡模型在對輸入引入極小的噪聲(如改變圖像輸入中某個關鍵的一個像素值)情況下,就有可能使網(wǎng)絡的識別和預測結果產生顛覆性的錯誤(如將青蛙識別為卡車、烏龜識別為槍支)。若沒有充分的風險評估,新興技術在對社會發(fā)展帶來機遇的同時,很有可能引入不可預計的安全隱患與風險。
現(xiàn)在對于人工智能的發(fā)展而言,首要的問題是選擇正確的道路。創(chuàng)新、價值、倫理是一個鐵三角,創(chuàng)新性技術對社會帶來潛在價值的同時,可能存在難以預期的風險,并對社會倫理提出重大挑戰(zhàn)。因此,發(fā)展人工智能技術普惠經濟與社會的同時,關注人工智能的社會屬性,從社會風險、倫理準則與治理角度確保人工智能科學、技術、產業(yè)的健康、良性發(fā)展至關重要。
為了確保發(fā)展有益的人工智能,世界上各國政府、非政府組織、科學團體、科研機構、非營利性組織、企業(yè)都提出了人工智能發(fā)展準則。包括英國政府、國際電子電器工程學會、國際勞工組織。至今,于公開渠道可見的人工智能準則提案已接近40個,涉及以人為本、合作、共享、公平、透明、隱私、安全、信任、權利、偏見、教育、通用人工智能等主題。例如,美國生命未來研究所倡導的阿西洛瑪人工智能準則(AsilomarAIPrinciples)、英國上議院提出的人工智能準則(AICode)等,都希望通過在人工智能倫理與準則制定方面的領先來引領人工智能的發(fā)展。
事實上目前任何一個國家、機構、組織提出的人工智能準則都僅覆蓋了少部分主題(更為具體的層面,人工智能準則提案涉及超過50個主要議題),雖然不少準則提案都有自身的特色,有其他方案未能覆蓋的考量,但想要構建統(tǒng)一、全面、完善的人工智能準則既是難以實現(xiàn)的,又是沒有必要的——難以實現(xiàn)的原因是人工智能這門科學技術本身、人工智能準則、倫理的內涵和外延都是在不斷完善的;沒有必要的原因是每個國家、組織與機構的準則提案都結合自身實際情況,有組織目標、環(huán)境、文化、倫理傳統(tǒng)相關的特殊考慮。
筆者認為,真正有價值的做法是認可每一個國家、機構提案在一定范圍的意義,而為了更好地實現(xiàn)人工智能的全球治理,重點將不是統(tǒng)一人工智能的準則,而是以更和諧互補的方式鏈接不同的人工智能準則提案,使其在局部(如國家、組織機構等)有序與一致,世界的全局范圍內不同的準則提案仍可交互和協(xié)商,最終實現(xiàn)和諧互補、優(yōu)化共生。
2.調和政府與企業(yè)在準則制定上的現(xiàn)存差異
在對不同人工智能準則提案的量化分析中可以看到:相對而言,各國政府對人工智能的潛在風險與安全高度重視,但企業(yè)的重視程度相對薄弱。這反映了在企業(yè)從事人工智能創(chuàng)新過程中對于潛在風險與安全隱患可能估計不足。例如,在對人工智能風險的評估中,部分企業(yè)認為如果總體可能的利益遠遠超過可預見的風險和不利因素,則可以進行相關探索。但從學術的視角看,一方面,依據(jù)潛在利益與風險之間的量化差異決定企業(yè)是否采取相關行動本身就是一個危險的視角;另一方面,如果沒有站在全社會的全局視角進行綜合研判與分析,僅從企業(yè)自身視角進行預測與判斷,則很有可能因為局限的思考與行動對社會造成潛在的巨大危害。
因此,應當看到政府重視與企業(yè)相對不足的考慮之間的差距,并采取引導、監(jiān)管、建立人工智能產品與服務的風險與安全評估體系等有效措施彌補政府期望與企業(yè)實踐之間的鴻溝。
同時,一些準則在相關技術途徑可能引發(fā)風險的方面可能估計不足。例如某些提案中對通用人工智能(各個認知功能達到人類水平,簡稱AGI)、超級智能(所有認知功能超過人類水平,簡稱ASI)涉及很有限。
這方面學術機構的討論和相關研究應當為政府決策提供有力支撐,例如阿西洛瑪人工智能準則中提出超級智能以全人類受益為標準來發(fā)展,劍橋大學近期提出并正在進行一項名為“通用人工智能的實現(xiàn)途徑及潛在風險”的研究。
3.兼顧專用人工智能和通用人工智能的發(fā)展
在人工智能頂層設計當中,是否發(fā)展通用人工智能,還是僅限于發(fā)展領域特定的專用人工智能?這是諸多人工智能準則提案中主要存在的巨大分歧。
例如,歐盟人工智能研究實驗室聯(lián)合會(CLAIRE)就明確提出應限制人類水平智能、通用智能以及超級智能的發(fā)展。德國的人工智能計劃也集中于發(fā)展專用人工智能。而阿西洛瑪人工智能準則、OpenAI等機構提出的人工智能準則中則明確提出應當對更安全的通用人工智能進行充分考慮與發(fā)展。
事實上發(fā)展專用智能并不一定能夠完全避免風險,因為專用智能系統(tǒng)在應用中很可能遇到不可預期的場景,具備一定的通用能力反而有可能提升智能系統(tǒng)的魯棒性和自適應能力。因此應針對智能的通用性這個主題鏈接不同國家、組織、機構的考慮,實現(xiàn)頂層設計的互補。
人類認知功能的多樣性以及人工智能應用場景的復雜性使得很難對人工智能的風險、安全以及倫理體系進行絕對完善的建模,特別是涉及到人工智能產品、服務與具有不同文化背景的人類群體交互。任何國家都應制定適應本國的實際社會、科技、經濟發(fā)展與文化需求的人工智能準則。但更關鍵的是需要全世界不同政府、學術組織、產業(yè)界深度交互與協(xié)同,對人工智能的發(fā)展進行對全社會有益的戰(zhàn)略性設計,對其潛在的社會風險與倫理挑戰(zhàn)進行系統(tǒng)性評估與預測,并構建世界范圍內總體和諧、互為補充、優(yōu)化共生的發(fā)展準則。
聲明:本文為轉載類文章,如涉及版權問題,請及時聯(lián)系我們刪除(QQ: 2737591964),不便之處,敬請諒解!