近日,美國人工智能公司 OpenAI 推出的新型聊天機器人 ChatGPT 風靡網(wǎng)絡,它強大的功能引起了社會的廣泛關注,被稱為 AI“里程碑式”應用。各大企業(yè)紛紛投身于類 ChatGPT 應用的開發(fā)浪潮之中,但 ChatGPT 的“走紅”也引發(fā)了人們對于人工智能監(jiān)管問題的討論。
ChatGPT 僅發(fā)布兩個月,其月活躍用戶數(shù)就已達到 1 億,一躍成為史上用戶增長速度最快的消費級應用。一時間,微軟、騰訊、百度、阿里等多家互聯(lián)網(wǎng)科技公司先后發(fā)布了在 ChatGPT 領域的成果和技術布局。ChatGPT 快捷的回復和簡單的操作,使得大量用戶將其運用于查資料、寫論文,而不僅僅是當作一個聊天工具使用。
然而,隨著 ChatGPT 的應用范圍越來越廣,其隱含的風險也開始進入大眾視野。盡管 ChatGPT 如今并不完美,但它仍然在刷新我們對人工智能發(fā)展的認知,AI 安全需要立法監(jiān)管。ChatGPT 已經(jīng)證實了人工智能獲得了令人難以置信的發(fā)展,但同樣也帶來了法律與道德問題。
在知識產(chǎn)權方面,ChatGPT 可能被用于生成論文與代碼,引發(fā)知識產(chǎn)權侵犯及歸屬爭議。在個人信息保護方面,ChatGPT 對信息、數(shù)據(jù)來源無法進行事實核查,可能存在個人數(shù)據(jù)泄露、虛假信息傳播等隱患。在數(shù)據(jù)安全方面,由于 ChatGPT 能夠學習人類語言,在編寫“釣魚郵件”時,能夠在語法和表達習慣上更具有迷惑性,如果利用不當,其造成的危害性后果難以估量。
從全球范圍來看,各國政府均已開始關注人工智能發(fā)展過程中的種種伴生問題,人工智能領域法律法規(guī)的制定與實施也被提上日程。生成型人工智能系統(tǒng)創(chuàng)造了機會,同時也讓我們面臨具有歷史意義的“十字路口”—— 究竟是人工智能控制人類,還是人類控制人工智能。
2022 年 12 月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,并于 2023 年 1 月 10 日起施行?!兑?guī)定》對類似 ChatGPT 等利用人工智能技術生成內(nèi)容的應用服務提供者、技術支持者提出了一系列要求。
歐盟近期也計劃更新尚未出臺的人工智能法規(guī) ——《人工智能法案》,預計該法案將于 2025 年生效。英國政府發(fā)布的《國家人工智能戰(zhàn)略》指出,政府制定的治理和監(jiān)管制度需要跟上人工智能快速變化的形勢。
由于這項人工智能技術的兩面性,我們不僅需要對算法進行監(jiān)管,同時也要與數(shù)據(jù)監(jiān)管相結合。如何保證生成式 AI 數(shù)據(jù)來源的準確性和隱私性,如何保護知識產(chǎn)權,如何及時修正 AI 不道德的言論導向,都是人工智能領域亟待解決的問題。
目前來看,人工智能的安全輔助作用仍需要相關部門進行審查和批準,ChatGPT 的應用范圍也應被限定。國家應當加強對人工智能的倫理規(guī)制,增強全社會的人工智能倫理意識和行為自覺,使人工智能既符合道德法律,符合公序良俗。在此基礎上,采取逐步放開使用領域與應用深度的方式,探索人工智能的健康發(fā)展之路。
正如英特爾 CEO 帕特?基辛格所說,人工智能已經(jīng)催生了全球變革,并為我們提供了強大的工具。技術本身是中性的,我們必須不斷地把它塑造成一股向善的力量。