歐盟發(fā)布AI倫理指南 提出未來AI系統(tǒng)應(yīng)該滿足的七項要求

時間:2019-04-12

來源: 安防知識網(wǎng)

導(dǎo)語:?據(jù)美國科技媒體TheVerge報道,歐盟本周一發(fā)布了一系列關(guān)于發(fā)展人工智能(AI)倫理的新指南,作為企業(yè)和政府開發(fā)人工智能倫理應(yīng)用的指導(dǎo)方針。

據(jù)美國科技媒體TheVerge報道,歐盟本周一發(fā)布了一系列關(guān)于發(fā)展人工智能(AI)倫理的新指南,作為企業(yè)和政府開發(fā)人工智能倫理應(yīng)用的指導(dǎo)方針。

這些規(guī)則不同于美國科幻小說作家艾薩克?阿西莫夫(IsaacAsimov)的“機器人三定律”,沒有直截了當?shù)靥峁┮粋€道德框架來幫助人類控制兇殘的機器人。相反,當人工智能整合至醫(yī)療、教育和消費技術(shù)等領(lǐng)域時,它們可澄清一些影響社會的模糊而分散的問題。

微信截圖_20190412174817.png 

因此,舉例來說,如果一套AI系統(tǒng)在未來某個時候診斷出你患有癌癥,歐盟的指導(dǎo)方針將確保下列事情的發(fā)生:軟件不會因種族或性別而產(chǎn)生偏見;不會推翻人類醫(yī)生的反對意見;患者有權(quán)選擇聽取AI診斷意見。

這些指導(dǎo)方針有助于阻止人工智能胡作非為,并保證在行政和官僚主義的層面上,不會制造出阿西莫夫式的謀殺謎團。

為了幫助實現(xiàn)這一目標,歐盟召集了52名專家組成的小組,提出了他們認為未來AI系統(tǒng)應(yīng)該滿足的七項要求。具體如下:

-人類作用和監(jiān)督:人工智能不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被AI系統(tǒng)操縱或脅迫,而且,人類應(yīng)該能夠干預(yù)或監(jiān)督軟件做出的每一個決定。

-技術(shù)的穩(wěn)健性和安全性:人工智能應(yīng)該是安全的、準確的。它不應(yīng)該易于受到外部攻擊(例如對抗性實例)的影響,而且,應(yīng)該是相當可靠的。

-隱私和數(shù)據(jù)管理:人工智能系統(tǒng)收集的個人數(shù)據(jù)應(yīng)該是安全的、私有的。它不應(yīng)該讓任何人接觸,也不應(yīng)該輕易被盜。

-透明性:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問的,軟件所做的決定應(yīng)“由人類理解和跟蹤”。換句話說,操作員應(yīng)該能夠解釋AI系統(tǒng)所做的決定。

-多樣性、非歧視和公平性:人工智能提供的服務(wù)應(yīng)面向所有人,無論年齡、性別、種族或其他特征。同樣地,系統(tǒng)不應(yīng)該在這些方面存在偏見。

-環(huán)境和社會福祉:人工智能系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對生態(tài)負責(zé))并“促進積極的社會變革”。

-問責(zé)制:人工智能系統(tǒng)應(yīng)該是可審計的,并被納入企業(yè)可舉報范疇,以便受到現(xiàn)有規(guī)則的保護。應(yīng)事先告知和報告系統(tǒng)可能產(chǎn)生的負面影響。

人們會注意到上述一些需求非常抽象,很難從客觀的角度進行評估。(例如,“積極的社會變革”的定義因人而異,因國而異),但其他定義內(nèi)容更為直截了當,可以通過政府監(jiān)督進行檢驗。例如,用于訓(xùn)練政府AI系統(tǒng)的數(shù)據(jù)實行共享,可能是對抗偏見性算法的好方法。

這些指導(dǎo)方針不具有法律約束力,但它們可能對歐盟未來起草的所有法律造成影響。歐盟一再表示,希望成為AI倫理領(lǐng)域的領(lǐng)導(dǎo)者,并通過《通用數(shù)據(jù)保護條例》(GDPR)表明,愿意制定影響深遠的法律,以保護公眾的數(shù)字權(quán)利。

不過在一定程度上,歐盟是由于環(huán)境因素而迫不得已充當這一角色的。在投資和前沿研究方面,歐盟無法與美國和中國――AI領(lǐng)域的世界領(lǐng)先者――一爭高下,因此,它選擇了倫理作為塑造技術(shù)未來的最佳選擇。

作為這項工作的一部分,本周一的報告包括了一份所謂的“值得信賴的AI評估列表”,以便幫助專家找出AI軟件中存在的潛在弱點或危險。此列表中的問題包括“是否對系統(tǒng)在意外情況和環(huán)境中的行為進行了驗證?”和“是否對數(shù)據(jù)集內(nèi)的數(shù)據(jù)類型和范圍進行了評估?”

這些評估清單只是初步措施,歐盟將在未來幾年收集企業(yè)反饋,并在2020年期限內(nèi)提供一份最終報告。

范尼?希德韋吉(FannyHIDvegi)現(xiàn)在是數(shù)字版權(quán)集團AccessNow的政策經(jīng)理,也是參與撰寫這份指南的專家之一,他說評估列表是報告中最重要的部分。希德韋吉向TheVerge透露,“它提供了一個實用的、前瞻性的視角”,來緩解人工智能的潛在危害。

“在我們看來,歐盟有能力、有責(zé)任站在這項工作的最前線,”希德韋吉說,“但我們認為,歐盟不應(yīng)停留在倫理指南水平……而應(yīng)該上升到法律層面?!?/p>

另有一些人懷疑,歐盟試圖通過影響巨大的倫理研究來規(guī)范全球人工智能的發(fā)展方式。

智庫機構(gòu)數(shù)據(jù)創(chuàng)新中心(CenterforDataInnovation)的高級政策分析師艾琳?奇沃特(ElineChivot)在接受TheVerge采訪時說:“通過為AI倫理創(chuàng)建黃金標準來確認歐盟在全球AI發(fā)展中的地位,我們對正在采取的這種方法持懷疑態(tài)度。要成為AI倫理的領(lǐng)導(dǎo)者,首先你必須在人工智能領(lǐng)域遙遙領(lǐng)先。


中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(m.u63ivq3.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0