透明度通常在道德商業(yè)困境中發(fā)揮關(guān)鍵作用——我們擁有的信息越多,就越容易確定什么是可接受的和不可接受的結(jié)果。如果財務(wù)錯位,誰犯了會計錯誤?如果數(shù)據(jù)被泄露,誰負(fù)責(zé)保護(hù)數(shù)據(jù),他們的行為是否正確?
但是,當(dāng)我們尋找錯誤或問題的明確來源并且找不到人時會發(fā)生什么?這就是人工智能提出獨特的道德考慮的地方。
人工智能在組織中顯示出巨大的潛力,但它在很大程度上仍然是一種正在尋找問題的解決方案。這是一個被誤解的概念,實際應(yīng)用尚未在企業(yè)內(nèi)完全實現(xiàn)。再加上許多公司缺乏以真正轉(zhuǎn)型的方式應(yīng)用人工智能的預(yù)算、人才和遠(yuǎn)見,人工智能仍遠(yuǎn)未達(dá)到臨界規(guī)模,而且容易被濫用。
但僅僅因為人工智能在日常業(yè)務(wù)中可能不是超可見的,并不意味著它在您的組織內(nèi)的某個地方?jīng)]有發(fā)揮作用。就像商業(yè)中的許多其他道德困境一樣,人工智能中的道德失誤經(jīng)常發(fā)生在陰暗處。無論有意與否,人工智能項目或應(yīng)用打破道德界限的后果可能是噩夢。避免人工智能中的道德失誤的關(guān)鍵是從一開始就對項目進(jìn)行公司治理。
以透明和信任構(gòu)建人工智能
到目前為止,我們都熟悉 AI 出錯的流行示例。對于深色皮膚的顧客不能正常工作的皂液器,對白種人來說更準(zhǔn)確的脈搏血氧儀,甚至預(yù)測罪犯是否會重新入獄的算法,都是人工智能(可以說是無意中)存在偏見的故事。
這些情況不僅會引起糟糕的頭條新聞和社交媒體的強(qiáng)烈反對,而且還會破壞更合法的人工智能用例,如果繼續(xù)以不信任的態(tài)度看待這項技術(shù),這些用例將無法實現(xiàn)。例如,僅在醫(yī)療保健領(lǐng)域,人工智能就有可能改善癌癥診斷并標(biāo)記高風(fēng)險再次入院的患者以獲得額外支持。除非我們學(xué)會建立人們對人工智能的信任,否則我們不會看到這些強(qiáng)大解決方案的全部好處。
當(dāng)我與同行和商業(yè)領(lǐng)袖談?wù)撊斯ぶ悄軙r,我從一開始就支持人工智能工作中的透明度和治理理念。更具體地說,這是我的建議:
1、道德人工智能不可能在真空中發(fā)生
如果實施不當(dāng),人工智能應(yīng)用可能會產(chǎn)生重大的連鎖反應(yīng)。當(dāng)單個部門或 IT 團(tuán)隊開始在沒有監(jiān)督的情況下嘗試 AI 驅(qū)動的流程時,通常會發(fā)生這種情況。如果他們的實驗出錯,團(tuán)隊是否意識到可能發(fā)生的倫理影響?部署是否符合公司現(xiàn)有的數(shù)據(jù)保留和訪問策略?沒有監(jiān)督,很難回答這些問題。
而且,如果沒有治理,如果確實發(fā)生了道德失誤,那么召集糾正道德失誤所需的利益相關(guān)者可能會更加困難。監(jiān)督不應(yīng)被視為對創(chuàng)新的壁壘,而是一項必要的檢查,以確保人工智能在一定的道德范圍內(nèi)運行。監(jiān)督最終應(yīng)該落在擁有他們的組織中的首席數(shù)據(jù)官,或者如果 CDO 角色不存在,則由首席信息官負(fù)責(zé)。
2、始終有計劃
我們看到的關(guān)于 AI 項目出現(xiàn)問題的最糟糕的頭條新聞通常有一個共同點,即處于其中的公司在出現(xiàn)問題時不準(zhǔn)備回答問題或解釋決策。監(jiān)督可以解決這個問題。當(dāng)組織的最高層存在對 AI 的理解和健康哲學(xué)時,就不太可能因問題而措手不及。
3、盡職調(diào)查和測試是強(qiáng)制性的
通過更多的耐心和更多的測試,許多人工智能偏見的經(jīng)典例子都可以得到緩解。就像洗手液分配器的例子一樣,一家公司展示其新技術(shù)的興奮最終適得其反。在產(chǎn)品公開發(fā)布之前,進(jìn)一步的測試可能會發(fā)現(xiàn)這種偏見。此外,任何人工智能應(yīng)用程序都需要從一開始就進(jìn)行嚴(yán)格審查。由于人工智能的復(fù)雜性和不確定的潛力,必須戰(zhàn)略性地謹(jǐn)慎使用它。
4、考慮人工智能監(jiān)督功能
為了保護(hù)客戶隱私,金融機(jī)構(gòu)投入大量資源來管理對敏感文件的訪問。他們的記錄團(tuán)隊仔細(xì)分類資產(chǎn)并構(gòu)建基礎(chǔ)設(shè)施,以確保只有正確的工作角色和部門才能看到每一個。這種結(jié)構(gòu)可以作為構(gòu)建組織人工智能治理功能的模板。一個專門的團(tuán)隊可以估計人工智能應(yīng)用程序的潛在積極或消極影響,并確定需要多久審查一次其結(jié)果以及由誰來審查。
對于尋求數(shù)字化顛覆的企業(yè)來說,試驗人工智能是重要的下一步。它將人類工作者從平凡的任務(wù)中解放出來,并使某些活動(如圖像分析)能夠以以前在財務(wù)上并不謹(jǐn)慎的方式進(jìn)行擴(kuò)展。但這不能掉以輕心。人工智能應(yīng)用必須在適當(dāng)?shù)谋O(jiān)督下仔細(xì)開發(fā),以避免偏見、道德上有問題的決定和糟糕的業(yè)務(wù)結(jié)果。確保對組織內(nèi)的 AI 工作進(jìn)行了正確的訓(xùn)練。最嚴(yán)重的道德失誤往往發(fā)生在黑暗處。