隨著人工智能變得越來越強大,人們對它最終在勞動力市場中席卷而來的不滿情緒越來越大,據(jù)報告預測,機器人將承擔多達一半的工作,現(xiàn)在越來越多的評論家認為,人工智能不是完全消除工作,更有可能時增加工作。
南加州大學的一項新研究表明了這種結(jié)合的強大力量。這項研究探索了人類和AI如何有效地協(xié)作,尤其著眼于預測專業(yè)。
作者強調(diào)人與機器之間的協(xié)作如何越來越普遍,尤其是在自動駕駛汽車等領(lǐng)域。
多年來,我們已經(jīng)逐漸適應汽車的自動化,包括自動變速箱、巡航控制、防抱死制動等。
目前,由SAGE領(lǐng)導的合作已進入情報高級研究計劃局(IARPA)混合預測競賽(HFC),以使其與周圍一些最佳的預測機構(gòu)進行適當?shù)臏y試。
SAGE旨在開發(fā)一種系統(tǒng),該系統(tǒng)可以利用人和機器的能力自行改善兩種類型的準確性。這次混合預測競賽(HFC)為研究人們?nèi)绾闻c計算機模型互動提供了獨特的環(huán)境。
在競賽中,參與者對開放數(shù)周的問題做出了貢獻,數(shù)百名參與者相互競爭。一些參與者接受了AI的預測,而其他參與者則沒有,每個參與者都可以自由選擇是否接受AI的建議。
人和機器一起工作比單獨工作要有效得多,實際上,AI人工團隊非常輕松地擊敗了專家預測員。
在HFC誕生之初,我們的一些隊友認為機器模型將勝過人類預報員,這已成定局。
該經(jīng)驗得出了一些有趣的發(fā)現(xiàn),其中最重要的一點是,人類參與者沒有大量使用統(tǒng)計模型,研究人員認為這類似于我們經(jīng)常也傾向于忽略其他人的建議。
在許多情況下,預測員會過度依賴模型。相反,我們發(fā)現(xiàn)人們過度依賴他們的個人信息。當模型預測與他們先前的信念(稱為確認偏差)不一致時,預測人員會輕易地拒絕該模型預測。
有趣的是,即使人們被明確告知這樣做對他們的事業(yè)非常有幫助,人們似乎仍然不愿意聽取他們的AI顧問的意見。因此,盡管使用AI確實可以改善結(jié)果,但不應將其視為容易賣出或既成事實,即會出現(xiàn)改進。
總體而言,將統(tǒng)計模型添加到預測系統(tǒng)中確實提高了準確性。但是,人類將很好地或根本不會使用這些工具,這并不是一個定局。
這對我們將基于AI的工具集成到工作場所的方式具有明顯的影響。結(jié)果提醒我們,如果要說服人們與團隊合作并不容易,僅“簡單地”開發(fā)出能夠很好地發(fā)揮作用的工具是不夠的。如果我們始終不理會它的建議,那么有一個衛(wèi)星導航系統(tǒng)為我們提供最佳路線建議是沒有用的。
為了使人與機器完美協(xié)作,將需要高度信任該機器。這樣,與新生的人際關(guān)系并沒有什么不同,在人際關(guān)系中,我們常常需要一定程度的經(jīng)驗,才能完全信任人及其能力。
研究人員認為這一發(fā)現(xiàn),對設計基于AI的工具的工程師以及最終承擔與之協(xié)作的最終用戶都具有重大意義。
普通人應該學會更加謹慎地與新技術(shù)互動。更好的預測者能夠確定何時信任模型以及何時信任自己的研究,而平均預測者則無法。