人工智能 (AI) 正在改變每個(gè)行業(yè),超過(guò)三分之一的組織現(xiàn)在廣泛或有限地生產(chǎn)人工智能。但與任何技術(shù)一樣,人工智能也伴隨著巨大的經(jīng)濟(jì)和社會(huì)風(fēng)險(xiǎn),例如不道德偏見(jiàn)的擴(kuò)散、責(zé)任的淡化和數(shù)據(jù)隱私的侵犯。
為了避免這些風(fēng)險(xiǎn)并負(fù)責(zé)任地部署人工智能,監(jiān)管政策和行業(yè)都有責(zé)任為圍繞該技術(shù)工作的從業(yè)者和用戶(hù)制定流程和標(biāo)準(zhǔn)。為此,道德 AI 和 ML 研究所的團(tuán)隊(duì)匯總了負(fù)責(zé)任的 AI 原則,以授權(quán)從業(yè)者確保這些原則通過(guò)設(shè)計(jì)嵌入到圍繞生產(chǎn) AI 和機(jī)器學(xué)習(xí)系統(tǒng)的基礎(chǔ)設(shè)施和流程中。
本文對(duì)八項(xiàng)原則中的四項(xiàng)進(jìn)行了細(xì)分:偏見(jiàn)評(píng)估、可解釋性、人工增強(qiáng)和可重復(fù)性。
偏見(jiàn)評(píng)估
在某種意義上,人工智能模型帶有固有的偏見(jiàn),因?yàn)樗鼈儽辉O(shè)計(jì)用來(lái)區(qū)別對(duì)待相關(guān)的答案。這是因?yàn)橹悄艿暮诵氖亲R(shí)別我們?cè)谑澜缟峡吹降哪J讲?duì)其采取行動(dòng)的能力。在開(kāi)發(fā)人工智能模型時(shí),我們?cè)噲D復(fù)制這種準(zhǔn)確的能力,并鼓勵(lì)人工智能在輸入的數(shù)據(jù)中發(fā)現(xiàn)模式,并產(chǎn)生相應(yīng)的偏見(jiàn)。例如,一個(gè)研究蛋白質(zhì)化學(xué)數(shù)據(jù)的模型會(huì)天生地對(duì)那些結(jié)構(gòu)可以以某種方式折疊的蛋白質(zhì)產(chǎn)生相關(guān)的偏見(jiàn),從而發(fā)現(xiàn)哪些蛋白質(zhì)在醫(yī)學(xué)的相關(guān)用例中有用。
因此,我們?cè)诠_(kāi)反對(duì)人工智能偏見(jiàn)時(shí)應(yīng)該小心謹(jǐn)慎。圍繞人工智能偏見(jiàn)的話(huà)題,我們通常指的是實(shí)際上不受歡迎或不合理的偏見(jiàn),例如基于受保護(hù)特征(如種族、性別或國(guó)籍)的偏見(jiàn)。
但為什么人工智能模型會(huì)產(chǎn)生不道德的偏見(jiàn)呢?答案取決于它輸入的數(shù)據(jù)。模型最終會(huì)反映出它們?cè)诓渴鹬笆褂玫挠?xùn)練數(shù)據(jù)中存在的偏見(jiàn),所以如果訓(xùn)練數(shù)據(jù)不具有代表性或合并了預(yù)先存在的偏差,那么生成的模型最終將反映它們。就像他們?cè)谟?jì)算機(jī)科學(xué)里說(shuō)的“無(wú)用輸入無(wú)用輸出”。
團(tuán)隊(duì)還必須創(chuàng)建一系列流程和程序,以正確識(shí)別圍繞 AI 訓(xùn)練數(shù)據(jù)、模型本身的訓(xùn)練和評(píng)估以及模型本身運(yùn)營(yíng)生命周期的有效性的任何不良偏差。如果您正在部署 AI,則值得關(guān)注的一個(gè)很好的例子是道德 AI 和機(jī)器學(xué)習(xí)研究所的eXplainable AI 框架,接下來(lái)我們將對(duì)此進(jìn)行更詳細(xì)的介紹
可解釋性
為了確保AI模型符合目的,相關(guān)領(lǐng)域?qū)<业膮⑴c也很重要。這些人可以幫助團(tuán)隊(duì)確保AI模型使用正確的性能指標(biāo),而不僅僅是統(tǒng)計(jì)數(shù)據(jù)和準(zhǔn)確性驅(qū)動(dòng)的性能指標(biāo)。值得強(qiáng)調(diào)的是,領(lǐng)域?qū)<也粌H包括技術(shù)專(zhuān)家,還包括與用例相關(guān)的社會(huì)科學(xué)和人文學(xué)科專(zhuān)家。
不過(guò),要使其發(fā)揮作用,確保模型的預(yù)測(cè)能夠由相關(guān)領(lǐng)域?qū)<医忉屢彩呛苤匾?。然而,先進(jìn)的人工智能模型通常使用最先進(jìn)的深度學(xué)習(xí)技術(shù),這可能不能簡(jiǎn)單地解釋為什么會(huì)做出特定的預(yù)測(cè)。
為了克服這一困難,組織傾向于利用多種技術(shù)和工具來(lái)實(shí)現(xiàn)機(jī)器學(xué)習(xí)的可解釋性,這些技術(shù)和工具可用于破譯 AI 模型的預(yù)測(cè)??梢栽诖颂幉榭催@些工具和技術(shù)的完整列表。
在可解釋性之后是人工智能模型的操作化。這是由相關(guān)利益相關(guān)者進(jìn)行調(diào)查和監(jiān)控的時(shí)候。此類(lèi) AI 模型的生命周期只有在正確部署到生產(chǎn)環(huán)境后才開(kāi)始。一旦啟動(dòng)并運(yùn)行,模型才會(huì)因?yàn)橥獠繅毫Χ馐苄阅芟陆担瑹o(wú)論是概念漂移還是模型運(yùn)行環(huán)境的變化。
人類(lèi)增強(qiáng)
在部署AI時(shí),首先評(píng)估原始非自動(dòng)化流程的當(dāng)前需求至關(guān)重要,包括概述不良結(jié)果的風(fēng)險(xiǎn)。這將允許對(duì)過(guò)程有更深入的理解,并有助于確定哪些領(lǐng)域可能需要人工干預(yù)來(lái)降低風(fēng)險(xiǎn)。
例如,向職業(yè)運(yùn)動(dòng)員推薦膳食計(jì)劃的人工智能的高影響風(fēng)險(xiǎn)因素遠(yuǎn)少于為銀行自動(dòng)化后端貸款審批流程的人工智能模型,這表明對(duì)前者而言,人工干預(yù)的必要性要小于后者。當(dāng)團(tuán)隊(duì)確定AI工作流的潛在風(fēng)險(xiǎn)點(diǎn)時(shí),他們可以考慮實(shí)施“ 人機(jī)回圈 ”的審查過(guò)程(HITL)。
HITL確保在流程自動(dòng)化之后,仍然存在各種接觸點(diǎn),其中需要人工干預(yù)來(lái)檢查結(jié)果,從而更容易在必要時(shí)提供糾正或撤銷(xiāo)決策。這個(gè)過(guò)程可以包括技術(shù)專(zhuān)家和行業(yè)專(zhuān)家團(tuán)隊(duì)(例如,銀行貸款的承銷(xiāo)商,或膳食計(jì)劃的營(yíng)養(yǎng)師),以評(píng)估人工智能模型做出的決定,并確保它們遵守最佳實(shí)踐。
可重復(fù)性
可重復(fù)性是指團(tuán)隊(duì)在數(shù)據(jù)點(diǎn)上重復(fù)運(yùn)行算法并每次都得到相同結(jié)果的能力。這是負(fù)責(zé)任的 AI 的核心組成部分,因?yàn)樗鼘?duì)于確保模型之前的預(yù)測(cè)在稍后階段重新運(yùn)行時(shí)重新發(fā)布至關(guān)重要
自然地,再現(xiàn)性很難實(shí)現(xiàn),這主要是由于人工智能系統(tǒng)內(nèi)在的困難。這是因?yàn)?AI 模型的輸出可能會(huì)因各種背景情況而異,例如:
用于計(jì)算 AI 干擾的代碼
從使用的數(shù)據(jù)中學(xué)習(xí)到的權(quán)重
運(yùn)行代碼的環(huán)境、基礎(chǔ)架構(gòu)和配置
提供給模型的輸入和輸入結(jié)構(gòu)
這是一個(gè)復(fù)雜的問(wèn)題,尤其是當(dāng)一個(gè) AI 模型被大規(guī)模部署并需要考慮無(wú)數(shù)其他工具和框架時(shí)。為此,團(tuán)隊(duì)需要開(kāi)發(fā)穩(wěn)健的實(shí)踐來(lái)幫助控制上述情況,并實(shí)施工具來(lái)幫助提高可重復(fù)性。首先,可以在此列表中找到許多。
關(guān)鍵要點(diǎn)
借助上述高級(jí)原則,行業(yè)可以確保遵循最佳實(shí)踐來(lái)負(fù)責(zé)任地使用人工智能。采用此類(lèi)原則對(duì)于確保人工智能充分發(fā)揮其經(jīng)濟(jì)潛力至關(guān)重要,并且不會(huì)削弱弱勢(shì)群體的權(quán)力、強(qiáng)化不道德的偏見(jiàn)或削弱問(wèn)責(zé)制。相反,它可以成為我們可以用來(lái)推動(dòng)增長(zhǎng)、生產(chǎn)力、效率、創(chuàng)新和為所有人帶來(lái)更大利益的技術(shù)