今年5月,人工智能安全中心曾發(fā)布一份由350位人工智能領(lǐng)域的科學(xué)家與企業(yè)高管聯(lián)名簽署的《人工智能風(fēng)險聲明》,聲明稱“降低人工智能導(dǎo)致人類滅絕的風(fēng)險,應(yīng)該與流行病及核戰(zhàn)爭等其他社會規(guī)模的風(fēng)險一起,成為全球優(yōu)先事項”。彼時,由 OpenAI、谷歌和微軟等公司的數(shù)百名首席執(zhí)行官和科學(xué)家簽署的這一句援引人類滅絕威脅的話,也成為了全球頭條新聞。4個多月過去,今天,社會對人工智能技術(shù)的擔(dān)憂不減反增。隨著以ChatGPT為代表的大模型進(jìn)入應(yīng)用,人們越來越意識到它的危險性:它有可能制造和傳播錯誤信息;它有能力取代或改變工作崗位;以及它變得比人類更智能并取代人類的風(fēng)險。如何對人工智能技術(shù)進(jìn)行監(jiān)管已成為當(dāng)前迫在眉睫的全球議題。
層出不窮的問題從來沒有哪項技術(shù)能夠像人工智能一樣引發(fā)人類無限的暢想,而在給人們帶來快捷和便利的同時,人工智能也成為一個突出的國際性的科學(xué)爭議熱題,人工智能技術(shù)的顛覆性讓我們也不得不考慮其背后潛藏的巨大危險。早在2016年11月世界經(jīng)濟(jì)論壇編纂的《全球風(fēng)險報告》列出的12項亟需妥善治理的新興科技中,人工智能與機(jī)器人技術(shù)就名列榜首。尤瓦爾·赫拉利在《未來簡史》中也曾預(yù)言,智人時代可能會因技術(shù)顛覆,特別是人工智能和生物工程技術(shù)的進(jìn)步而終結(jié),因為人工智能會導(dǎo)致絕大多數(shù)人類失去功用。究其原因,人工智能技術(shù)并不是一項單一技術(shù),其涵蓋面及其廣泛,而“智能”二字所代表的意義又幾乎可以代替所有的人類活動。就當(dāng)前的現(xiàn)實來說,生成式人工智能的爭議性主要集中在對人們的隱私權(quán)構(gòu)成新的挑戰(zhàn),使內(nèi)容造假或者作惡的門檻降低。比如,前段時間,在互聯(lián)網(wǎng)平臺,“AI孫燕姿”翻唱的《發(fā)如雪》《下雨天》等走紅,抖音平臺上也出現(xiàn)了“AI孫燕姿”的合集。很快,“AI周杰倫”“AI王菲”等也都相繼問世。“AI歌手”主要是利用AI技術(shù)提取歌手的音色特征,對其他歌曲進(jìn)行翻唱。但“AI歌手”是否涉及侵權(quán)卻并無定論,也無監(jiān)管。與“AI歌手”相似的,是AI繪畫。AI繪畫是指利用AI技術(shù)來生成內(nèi)容的新型創(chuàng)作方式,同樣因著作權(quán)的歸屬問題頻頻惹出爭議,遭到大批畫師抵制。全球知名視覺藝術(shù)網(wǎng)站ArtStation上的千名畫師曾發(fā)起聯(lián)合抵制,禁止用戶將其畫作投放AI繪畫系統(tǒng)。
除了AI歌手和AI繪畫外,AI寫書、AI新聞采編也越來越多的出現(xiàn)在互聯(lián)網(wǎng)中,此前,就有網(wǎng)友發(fā)現(xiàn),亞馬遜網(wǎng)上書店有兩本關(guān)于蘑菇的書籍為AI所創(chuàng)造。這兩本書的作者,署名都為 Edwin J. Smith,但事實上,根本不存在這個人。書籍內(nèi)容經(jīng)過軟件檢測,85% 以上為 AI 撰寫。更糟糕的是,它關(guān)于毒蘑菇的部分是錯的,如果相信它的描述,可能會誤食有毒蘑菇。紐約真菌學(xué)會為此發(fā)了一條推特,提醒用戶只購買知名作者和真實采集者的書籍,這可能會關(guān)系到你的生命。AI合成除了引發(fā)版權(quán)相關(guān)的爭議,也讓AI詐騙有了更多的空間。當(dāng)前,AIGC的制作成本越來越低,也就是說,誰都可以通過AIGC產(chǎn)品生成想要的圖片或者其他內(nèi)容,但問題是,沒有人能承擔(dān)這項技術(shù)被濫用的風(fēng)險。今年以來,已經(jīng)有太多新聞,報道了AI生成軟件偽造家人的音頻和視頻,騙錢騙財。據(jù)FBI統(tǒng)計,AI生成的DeepFake在勒索案中已經(jīng)成為了不可忽視的因素,尤其是跟性相關(guān)的勒索。當(dāng)假的東西越真時,我們辨別假東西的成本也越大。AI技術(shù)同時也引發(fā)了數(shù)據(jù)安全的爭議。比如,今年6月,由16人匿名提起訴訟,聲稱OpenAI與其主要支持者微軟公司在數(shù)據(jù)采集方面違背了合法獲取途徑,選擇了未經(jīng)同意與付費(fèi)的方式,進(jìn)行個人信息與數(shù)據(jù)的收集。起訴人稱,OpenAI為了贏得“AI軍備競賽”,大規(guī)模挪用個人數(shù)據(jù),非法訪問用戶與其產(chǎn)品的互動以及與ChatGPT集成的應(yīng)用程序產(chǎn)生的私人信息,根據(jù)這份長達(dá)157頁的訴訟文件,OpenAI以秘密方式從互聯(lián)網(wǎng)上抓取了3000億個單詞,并獲取了“書籍、文章、網(wǎng)站和帖子——包括未經(jīng)同意獲得的個人信息”,行為違反了隱私法。顯然,盡管ChatGPT稱得上是一項革命性的突破,但其與其他生成式AI應(yīng)用對人類社會造出的風(fēng)險也是不可忽視的。全球醞釀監(jiān)管措施 隨著AI風(fēng)險的凸顯,各國也把對于AI的監(jiān)管提上日程。斯坦福大學(xué)發(fā)布的《2023年人工智能指數(shù)報告》中提到,對127個國家立法記錄調(diào)研的結(jié)果顯示,包含“人工智能”的法案被通過成為法律的數(shù)量,從2016年的僅1個增長到2022年的37個。報告對81個國家2016年以來的人工智能法律法規(guī)記錄的分析也同樣表明,全球立法程序中提及人工智能的次數(shù)增加了近6.5倍。具體監(jiān)管方面,歐洲議會在今年6月,率先通過了一項名為《人工智能法案》(AI Act)的法律草案,該法案將對被視為該技術(shù)最危險的用途施加新的限制——投票禁止實時遠(yuǎn)程生物識別技術(shù),歐盟禁令意味著不能在公共場合實時人臉掃描;同時要求OpenAI和谷歌等公司必須進(jìn)行風(fēng)險評估,并披露更多用于創(chuàng)建程序的數(shù)據(jù)。不僅如此,《人工智能法案》將人工智能風(fēng)險分為不可接受的風(fēng)險、高風(fēng)險、有限的風(fēng)險和極小的風(fēng)險四級,對應(yīng)不同的監(jiān)管要求。在美國,7月21日,包含亞馬遜、谷歌、微軟、OpenAI、Meta、Anthropic和Inflection在內(nèi)的7家人工智能巨頭公司參與了白宮峰會,這些公司的代表與美國總統(tǒng)拜登會面,為防范AI風(fēng)險做出了8項承諾。其中有一項內(nèi)容很有意思,這7家AI巨頭聯(lián)合宣布——將會開發(fā)出一種水印技術(shù),在所有AI生成的內(nèi)容中嵌入水印。OpenAI在官網(wǎng)中表示,將會研發(fā)一種水印機(jī)制,加入到視頻或音頻中。還會開發(fā)一種檢測工具,判斷特定內(nèi)容是否含有系統(tǒng)創(chuàng)建的工具或API。谷歌也表示,除了水印以外,還會有其它創(chuàng)新型技術(shù),把關(guān)信息推廣。就國內(nèi)來看,今年4月11日,國家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》,到7月13日,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,僅僅用了3個月的時間,并且自2023年8月15日起施行。與此同時,《辦法》做出了一系列的規(guī)范和管理措施,《辦法》明確了提供和使用生成式人工智能服務(wù)的總體要求,提出國家堅持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管。這也讓我們看到,面對AI技術(shù)挑戰(zhàn),人類已經(jīng)開始了自律行動,目的就是讓AI更好的服務(wù)于人類社會。正如以往的任何一次工業(yè)革命,盡管都對人類社會帶來了巨大的影響,也存在一些負(fù)面?zhèn)?,但人類最終都能在技術(shù)的協(xié)同中,將正向價值發(fā)揮到最大,并且最大程度的通過一些規(guī)則來降低技術(shù)的負(fù)面影響。同樣,在AI技術(shù)所引發(fā)的第四次工業(yè)革命浪潮下,盡管目前我們還不清楚技術(shù)的潛在負(fù)面,但對于已經(jīng)預(yù)見到的潛在影響,人類已經(jīng)在尋找解決方案。人工智能向善發(fā)展其實,不管監(jiān)管會怎樣前進(jìn),最終目的都是引導(dǎo)人工智能向善發(fā)展,只有人工智能向善,人類才能與機(jī)器協(xié)同建設(shè)人類文明。當(dāng)然,這個問題本身并不復(fù)雜,本質(zhì)上來看,作為一種技術(shù),人工智能并沒有善惡之分,但人類卻有??梢灶A(yù)見,隨著ChatGPT的進(jìn)一步發(fā)展,人工智能還將滲透到社會生活的各領(lǐng)域并逐漸接管世界,諸多個人、企業(yè)、公共決策背后都將有人工智能的參與。而如果我們?nèi)螒{算法的設(shè)計者和使用者將一些價值觀進(jìn)行數(shù)據(jù)化和規(guī)則化,那么人工智能即便是自己做出道德選擇時,也會天然帶著價值導(dǎo)向而并非中立。說到底,ChatGPT是人類教育與訓(xùn)練的結(jié)果,它的信息來源于我們?nèi)祟惿鐣?。ChatGPT的善惡也由人類決定。如果用通俗的方式來表達(dá),教育與訓(xùn)練ChatGPT正如果我們訓(xùn)練小孩一樣,給它投喂什么樣的數(shù)據(jù),它就會被教育成什么類型的人。這是因為人工智能通過深度學(xué)習(xí) “學(xué)會”如何處理任務(wù)的唯一根據(jù)就是數(shù)據(jù)。因此,數(shù)據(jù)具有怎么樣的價值導(dǎo)向,有怎么樣的底線,就會訓(xùn)練出怎么樣的人工智,如果沒有普世價值觀與道德底線,那么所訓(xùn)練出來的人工智能將會成為非??植赖墓ぞ?。而如果通過在訓(xùn)練數(shù)據(jù)里加入偽裝數(shù)據(jù)、惡意樣本等破壞數(shù)據(jù)的完整性,進(jìn)而導(dǎo)致訓(xùn)練的算法模型決策出現(xiàn)偏差,就可以污染人工智能系統(tǒng)。有報道表示,ChatGPT在新聞領(lǐng)域的應(yīng)用會成為造謠基地。這種看法本身就是人類的偏見與造謠。因為任何技術(shù)的本身都不存在善與惡,只是一種中性的技術(shù)。而技術(shù)所表現(xiàn)出來的善惡背后是人類對于這項技術(shù)的使用,比如核技術(shù)的發(fā)展,被應(yīng)用于能源領(lǐng)域就能成為服務(wù)人類社會,能夠發(fā)電給人類社會帶來光明。但是這項技術(shù)如果使用于戰(zhàn)爭,那對于人類來說就是一種毀滅,一種黑暗,一種惡。人工智能由人創(chuàng)造,為人服務(wù),這也將使我們的價值觀變得更加重要。過去,無論是汽車的問世,還是電腦和互聯(lián)網(wǎng)的崛起,人們都很好地應(yīng)對了這些轉(zhuǎn)型時刻,盡管經(jīng)歷了不少波折,但人類社會最終變得更好了。在汽車首次上路后不久,就發(fā)生了第一起車禍。但我們并沒有禁止汽車,而是頒布了限速措施、安全標(biāo)準(zhǔn)、駕照要求、酒駕法規(guī)和其他交通規(guī)則。我們現(xiàn)在正處于另一個深刻變革的初期階段——人工智能時代。這類似于在限速和安全帶出現(xiàn)之前的那段不確定時期。人工智能發(fā)展得如此迅速,導(dǎo)致我們尚不清楚接下來會發(fā)生什么。當(dāng)前技術(shù)如何運(yùn)作,人們將如何利用人工智能違法亂紀(jì),以及人工智能將如何改變社會和作為獨(dú)立個體的我們,這些都對我們提出了一系列嚴(yán)峻考驗。在這樣的時刻,感到不安是很正常的。但歷史表明,解決新技術(shù)帶來的挑戰(zhàn)依然是完全有可能的。而這種可能性,正取決于我們?nèi)祟悺?/p>