隨著歐盟邁向?qū)嵤┤斯ぶ悄芊ò?,人工智能倫理道德問題(如偏見、透明度和可解釋性)正變得越來越重要,該法案將有效規(guī)范人工智能和機(jī)器學(xué)習(xí)技術(shù)在所有行業(yè)的使用。人工智能專家表示,這是人工智能用戶熟悉道德概念的好時(shí)機(jī)。
歐洲最新版的《人工智能法案》于去年推出,目前正在迅速通過審查過程,最早可能在 2023 年實(shí)施。雖然該法律仍在制定中,但歐盟委員會(huì)似乎已準(zhǔn)備好大步監(jiān)管人工智能。
例如,法律將對(duì)人工智能系統(tǒng)的使用設(shè)定新要求,并完全禁止某些用例。所謂的高風(fēng)險(xiǎn)人工智能系統(tǒng),例如用于自動(dòng)駕駛汽車的人工智能系統(tǒng)以及教育、移民和就業(yè)的決策支持系統(tǒng),將要求用戶對(duì)人工智能應(yīng)用進(jìn)行影響評(píng)估和審計(jì)。某些 AI 用例將在數(shù)據(jù)庫中進(jìn)行密切跟蹤,而其他用例則需要外部審計(jì)員簽字才能使用。
總部位于賓夕法尼亞州紐敦的軟件工程公司 EPAM Systems 的數(shù)據(jù)分析咨詢主管 Nick Carrel 表示,作為 MLOps 參與或數(shù)據(jù)科學(xué)咨詢參與的一部分,對(duì)不可解釋性和可解釋性的需求很大。他說,歐盟的人工智能法案也在推動(dòng)企業(yè)尋求關(guān)于道德人工智能的洞察力和答案。
“現(xiàn)在對(duì)所謂的 ML Ops 有很多需求,這是一門操作機(jī)器學(xué)習(xí)模型的科學(xué)。我們非常認(rèn)為道德人工智能是這一過程的關(guān)鍵基礎(chǔ)之一,” Carrel 說?!拔覀冞€有來自客戶的更多要求……因?yàn)樗麄兞私饬思磳⒃诮衲昴甑讎@人工智能系統(tǒng)生效的歐盟立法,他們希望做好準(zhǔn)備?!?/p>
不可解釋性和可解釋性是獨(dú)立但相關(guān)的概念。模型的可解釋性是指人類能夠理解和預(yù)測(cè)模型將做出何種決策的程度,而可解釋性是指準(zhǔn)確描述模型實(shí)際工作方式的能力。EPAM Systems 數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)部門的負(fù)責(zé)人 Andrey Derevyanka 說,你可以有一個(gè)沒有另一個(gè)。
“想象一下,你正在做一些實(shí)驗(yàn),也許是一些混合兩種液體的化學(xué)實(shí)驗(yàn)。這個(gè)實(shí)驗(yàn)是可以解釋的,因?yàn)?,你看到你在這里做了什么。你拿了一個(gè)物品,加上另一個(gè)物品,我們得到了結(jié)果,”Derevyanka 表示。“但要讓這個(gè)實(shí)驗(yàn)可以解釋,你需要知道化學(xué)反應(yīng),你需要知道反應(yīng)是如何產(chǎn)生的,是如何進(jìn)行的,你需要知道這個(gè)過程的內(nèi)部細(xì)節(jié)。”
Derevyanka 說,特別是深度學(xué)習(xí)模型可以解釋但有不能說明具體情況。“你有一個(gè)黑盒子,它以某種方式運(yùn)作,但你知道你不知道里面是什么,”他說?!暗憧梢越忉專喝绻憬o出這個(gè)輸入,你就會(huì)得到這個(gè)輸出?!?/p>
消除偏見
在道德 AI 方面,偏見是另一個(gè)重要主題。EPAM Systems 數(shù)據(jù)和人工智能實(shí)踐主管 Umit Cakmak 表示,不可能完全消除數(shù)據(jù)中的偏見,但企業(yè)組織努力消除人工智能模型中的偏見很重要。
“這些事情必須隨著時(shí)間的推移進(jìn)行分析,”Cakmak 說。“這是一個(gè)過程,因?yàn)槠娨呀?jīng)融入歷史數(shù)據(jù)。沒有辦法從數(shù)據(jù)中清除偏差。因此,作為一家企業(yè),您必須設(shè)置一些特定的流程,以便您的決策隨著時(shí)間的推移變得更好,這將隨著時(shí)間的推移提高您的數(shù)據(jù)質(zhì)量,因此隨著時(shí)間的推移,您的偏見會(huì)越來越少?!?/p>
可解釋性對(duì)于讓利益相關(guān)者(包括內(nèi)部或外部審計(jì)師,以及將聲譽(yù)置于危險(xiǎn)境地的客戶和高管)相信 AI 模型不會(huì)根據(jù)有偏見的數(shù)據(jù)做出錯(cuò)誤的決策非常重要。
Cakmak 說,文獻(xiàn)中有許多數(shù)據(jù)偏見泄漏到自動(dòng)決策系統(tǒng)中的例子,包括種族偏見出現(xiàn)在用于評(píng)估員工績(jī)效或從簡(jiǎn)歷中挑選求職者的模型中。能夠展示模型如何得出結(jié)論對(duì)于展示已采取措施消除模型中的數(shù)據(jù)偏差非常重要。
Cakmak 回憶起缺乏可解釋性如何導(dǎo)致一家醫(yī)療保健公司放棄為癌癥診斷開發(fā)的人工智能系統(tǒng)?!叭斯ぶ悄茉谀撤N程度上發(fā)揮了作用,但隨后該項(xiàng)目被取消,因?yàn)樗麄儫o法建立對(duì)算法的信任和信心,”他說?!叭绻銦o法解釋為什么會(huì)出現(xiàn)這種結(jié)果,那么你就無法繼續(xù)治療。”
EPAM Systems 幫助企業(yè)以可信的方式實(shí)施人工智能。該公司通常會(huì)遵循一套特定的指導(dǎo)方針,從如何收集數(shù)據(jù)開始,到如何準(zhǔn)備機(jī)器學(xué)習(xí)模型,再到如何驗(yàn)證和解釋模型。Cakmak 說,確保 AI 團(tuán)隊(duì)成功通過并記錄這些檢查或“質(zhì)量門”是道德 AI 的一個(gè)重要元素。
道德與人工智能法案
波士頓咨詢集團(tuán)全球 GAMMA 首席人工智能道德官 Steven Mills 表示,規(guī)模最大、運(yùn)營(yíng)最完善的企業(yè)已經(jīng)意識(shí)到需要負(fù)責(zé)任的人工智能。
然而,隨著人工智能法案越來越接近成為法律,我們將看到世界各地更多的公司加速他們負(fù)責(zé)任的人工智能項(xiàng)目,以確保他們不會(huì)違反不斷變化的監(jiān)管環(huán)境和新的期望。
“有很多公司已經(jīng)開始實(shí)施人工智能,并且意識(shí)到我們沒有像我們想要的那樣對(duì)所有潛在的意外后果抱有希望,我們需要盡快解決這個(gè)問題,” Mills說. “這是最重要的。人們并不覺得他們只是隨意的以及他們?nèi)绾螒?yīng)用它?!?/p>
以合乎道德的方式實(shí)施人工智能的壓力來自組織的高層。 Mills說,在某些情況下,它來自外部投資者,他們不希望自己的投資風(fēng)險(xiǎn)因以不好的方式使用人工智能而受到損害。
他說:“我們看到了一種趨勢(shì),即投資者,無論是上市公司還是風(fēng)險(xiǎn)基金,都希望確保以負(fù)責(zé)任的方式構(gòu)建人工智能?!?nbsp;“這可能并不明顯。這對(duì)每個(gè)人來說可能并不明顯。但在幕后,這些風(fēng)險(xiǎn)投資公司中的一些人正在考慮他們?cè)谀睦锿度胭Y金以確保這些初創(chuàng)公司以正確的方式做事?!?/p>
Carrel 表示,雖然目前《人工智能法案》的細(xì)節(jié)也很模糊,但該法律有可能明確人工智能的使用,這將使公司和消費(fèi)者都受益。
“我的第一反應(yīng)是這將是非常嚴(yán)格的,”Carrel 說,他在加入 EPAM Systems 之前在金融服務(wù)行業(yè)實(shí)施了機(jī)器學(xué)習(xí)模型。“多年來,我一直在試圖突破金融服務(wù)決策的界限,突然間有一項(xiàng)立法出臺(tái),它會(huì)破壞我們所做的工作。
但他越是關(guān)注未決法律,就越喜歡他所看到的。
“我認(rèn)為這也將逐漸增加公眾對(duì)不同行業(yè)使用人工智能的信心,” Carrel 說。“立法規(guī)定你必須在歐盟注冊(cè)高風(fēng)險(xiǎn)人工智能系統(tǒng),這意味著你知道在某處將有一個(gè)非常清晰的清單,列出正在使用的每一個(gè)人工智能高風(fēng)險(xiǎn)系統(tǒng)。這為審計(jì)人員提供了強(qiáng)大的權(quán)力,這意味著頑皮的男孩和壞玩家將逐漸受到懲罰,希望隨著時(shí)間的推移,我們會(huì)為那些想要將人工智能和機(jī)器學(xué)習(xí)用于更好的事業(yè)的人留下最佳實(shí)踐——負(fù)責(zé)任的方式?!?/p>