面對(duì)無(wú)法避免的事故,作為一名司機(jī),你必須做出一個(gè)瞬間的決定,但對(duì)于自動(dòng)駕駛汽車,你必須通過(guò)編程來(lái)判斷其后果。在沒(méi)有選擇的情況下,你會(huì)怎么做?
當(dāng)你乘坐無(wú)人駕駛的汽車時(shí),突然有五個(gè)人出現(xiàn)在你高速行駛的車的前方,而且當(dāng)時(shí)已經(jīng)沒(méi)有時(shí)間讓汽車停下來(lái),這時(shí),汽車可以選擇選擇猛打方向盤(pán),讓車偏離道路,這樣可能會(huì)導(dǎo)致車上乘客死亡;它還有可能選擇徑直軋向那五個(gè)人,導(dǎo)致行人的死亡。無(wú)人駕駛汽車應(yīng)該怎么做?或許這個(gè)問(wèn)題應(yīng)該是,汽車編程人員教會(huì)汽車應(yīng)該做什么?那么又是誰(shuí)來(lái)告訴程序員應(yīng)該怎么做呢?
社會(huì)價(jià)值決定生死?
在人工智能時(shí)代,每一個(gè)關(guān)于道德的問(wèn)題似乎都在引發(fā)另一個(gè)問(wèn)題。利茲培根教授是英國(guó)格林尼治大學(xué)建筑、計(jì)算和人文學(xué)科的副校長(zhǎng),她還擁有人工智能博士學(xué)位,是英國(guó)計(jì)算機(jī)協(xié)會(huì)的前任主席。上周在墨爾本舉行的國(guó)際人工智能聯(lián)合會(huì)議上培根教授表示,那些關(guān)于AI的法律的辯論仍面臨著大量復(fù)雜的問(wèn)題亟待解決。
在上述無(wú)人駕駛汽車的例子中,培根教授表示,在汽車中輸入的程序需要取代人類在同樣情況下所做的思考。"現(xiàn)在作為一名司機(jī),你必須做出一個(gè)瞬間的決定,但對(duì)于自動(dòng)駕駛汽車,你必須通過(guò)編程來(lái)判斷其后果。"在沒(méi)有選擇的情況下,你會(huì)怎么做?
"你可以直接用數(shù)字來(lái)解決。"汽車可能會(huì)說(shuō),"我要離開(kāi)公路,選擇犧牲自己車?yán)锏娜耍皇悄俏鍌€(gè)行人。"這取決于汽車的人工智能設(shè)計(jì),以及人們對(duì)社會(huì)的價(jià)值。比如說(shuō)汽車?yán)锏娜伺銮烧莆罩斡┌Y的方法,而路上那五個(gè)人都是越獄的逃犯。
"也許你說(shuō)他們對(duì)社會(huì)的價(jià)值更少,所以你可能會(huì)說(shuō)'我要把那個(gè)人留在車?yán)?。如果你真的考慮到人們對(duì)社會(huì)的價(jià)值,那就會(huì)產(chǎn)生可怕的后果。"如果你有一臺(tái)電腦可以進(jìn)行瞬間的查找,自動(dòng)駕駛汽車有各種各樣的關(guān)于他們周圍的人的知識(shí)來(lái)做出實(shí)際的決策。想到如何去編這個(gè)程序是很可怕的。接下來(lái)的問(wèn)題是,如果你對(duì)算法進(jìn)行編程,說(shuō)"殺死這些人",那么法院是否會(huì)認(rèn)為這是蓄意謀殺?
偏見(jiàn)or蓄意謀殺?
培根教授說(shuō):"人們制造自動(dòng)駕駛汽車就是個(gè)巨大的社會(huì)道德問(wèn)題。"他還表示政府需要站出來(lái),解決這些棘手的問(wèn)題,"政府應(yīng)該迎頭趕上,但我認(rèn)為他們沒(méi)有。他們的立法往往落后于現(xiàn)實(shí)。我認(rèn)為他們需要嘗試制定一些相關(guān)法律。對(duì)決策的實(shí)際微調(diào)可以在公司層面進(jìn)行,在中層管理層面上,它可以在程序員的實(shí)際水平上完成--這就是我們存在潛在偏見(jiàn)的問(wèn)題,可能是有意識(shí)的偏見(jiàn)或無(wú)意識(shí)的偏見(jiàn)。"
當(dāng)你的工作是為無(wú)人駕駛汽車編程時(shí),你可能會(huì)不同意公司關(guān)于自動(dòng)駕駛汽車應(yīng)該如何處理不同路況的問(wèn)題。你會(huì)讓汽車去撞死行人,不惜一切代價(jià)保護(hù)車上的人嗎?對(duì)此,培根教授說(shuō):"偏見(jiàn)會(huì)在任何程度的生產(chǎn)中蔓延。每個(gè)人都有自己評(píng)判對(duì)錯(cuò)的標(biāo)準(zhǔn),也有自己的個(gè)人底線,知道自己能夠與之互動(dòng)。如果你處于壓力之下,你不想失去工作,你的老板會(huì)給你施加壓力,讓你做一些你覺(jué)得不舒服的事情,這是非常困難的。
黑客操控僵尸車引發(fā)的擔(dān)憂
《速度與激情8》里的僵尸車讓人們看到了無(wú)人駕駛汽車被黑客入侵的場(chǎng)景?,F(xiàn)實(shí)中,在美國(guó)有黑客成功侵入了汽車,并改變了汽車的路徑軌跡,其中包括自動(dòng)踩下剎車等。"在全球范圍內(nèi),人工智能可以發(fā)揮巨大的作用。但可悲的是,有些人想要傷害我們,他們是不道德的。"培根說(shuō):"如果你想要在車?yán)餁⒁粋€(gè)人,你就可以侵入他們的汽車,理論上,他們可以把車開(kāi)到懸崖邊或者撞到墻上。你可以讓它看起來(lái)像個(gè)意外。"
此外,培根教授還說(shuō),雖然我們的道路上仍會(huì)有許多死亡案例的發(fā)生,但自動(dòng)駕駛汽車的帶來(lái),會(huì)大幅削減人為駕駛導(dǎo)致的死亡人數(shù),但是也有可能會(huì)帶來(lái)新一輪"不同類型的死亡"。比如,人類司機(jī)可能會(huì)殺死A,但自動(dòng)駕駛汽車可能會(huì)殺死B,因?yàn)樗麄兊乃惴ú煌?/p>
"除了自動(dòng)駕駛汽車,培根還補(bǔ)充說(shuō),人工智能將會(huì)滲透到其他領(lǐng)域,比如戰(zhàn)場(chǎng)。"不久之后,我們就不再把人送進(jìn)戰(zhàn)爭(zhēng)了,"她說(shuō)。"我們派無(wú)人機(jī)和機(jī)器人參與戰(zhàn)斗,幫助我們發(fā)射導(dǎo)彈。"人們遠(yuǎn)程控制機(jī)器人進(jìn)行戰(zhàn)斗。這就是未來(lái)的發(fā)展方向,很有可能會(huì)成為現(xiàn)實(shí)。"從這個(gè)意義上說(shuō),當(dāng)我們有能夠做到這一點(diǎn)的機(jī)器人時(shí),人們?cè)谇熬€被殺的可能性會(huì)更大。這改變了戰(zhàn)爭(zhēng)的性質(zhì),改變了決策的性質(zhì)。"
當(dāng)車禍發(fā)生,誰(shuí)應(yīng)被起訴?
當(dāng)我們的親人被無(wú)人駕駛汽車撞到,我們應(yīng)該去起訴誰(shuí)?"這是個(gè)大問(wèn)題,"培根說(shuō),"我確實(shí)認(rèn)為,在立法方面,我們需要政府的幫助,因?yàn)檫@是一個(gè)非常困難的問(wèn)題。"關(guān)于如何起訴機(jī)器人,有一些討論,不過(guò)我不太明白這是怎么運(yùn)作的,因?yàn)闄C(jī)器人沒(méi)有銀行賬戶和錢(qián)。無(wú)人駕駛汽車的發(fā)開(kāi)涉及很多利益相關(guān)者,我真的沒(méi)有答案。"但保險(xiǎn)公司必須要找到答案,因?yàn)楫?dāng)事情發(fā)生時(shí),他們必須知道誰(shuí)是罪魁禍?zhǔn)住?這是一個(gè)大問(wèn)題。
目前還沒(méi)有多少人了解在道路上使用無(wú)人駕駛汽車的意義,而這是一項(xiàng)需要在發(fā)展過(guò)程中就開(kāi)展教育的技術(shù)。培根說(shuō):"我認(rèn)為整個(gè)社會(huì)都需要接受這種教育,這樣他們就能理解人工智能是什么,理解它對(duì)生活的影響。只有在弄清楚了這一系列事情之后,他們才有資格做出自己的判斷。"最重要的是,培根說(shuō),"信任將是關(guān)鍵。"她說(shuō)。"推出無(wú)人駕駛汽車的人不會(huì)賣任何東西,除非人們真正信任這項(xiàng)技術(shù)。"
更多資訊請(qǐng)關(guān)注汽車制造頻道