10月21日消息,據(jù)外媒報道,下次當(dāng)你開車或在街上行走的時候,停下來想一想你是怎么了解周圍環(huán)境的。你要特別注意在前院草坪上踢足球的孩子,以及那個看起來有點兒不穩(wěn)、神情緊張的騎單車者。你不能被街頭大步行走的女人分散注意力,雖然她正走向人行道上向她揮手的一群朋友。
你需要大量的社會和文化經(jīng)驗來做這些事,但你幾乎不需要去思考就能本能地得出結(jié)論??墒窍胂笠幌拢偃缒闶且惠v無人駕駛汽車,想要做同樣的事情,但卻沒有積累的知識或共享的人性,它們可以讓你從其他人的細(xì)微行為中解讀出線索。把每個行人、騎單車者以及車輛都當(dāng)作障礙對待,可以讓你避免撞上任何東西,但這也很容易讓你被隔離。
美國加州大學(xué)伯克利分校電子工程與計算機科學(xué)系的自動化專家安卡·德拉甘(AncaDragan)表示:“我們把它稱為冷凍機器人問題。汽車所能做的任何事都太危險了,因為只有最糟糕的人類行為才可能會導(dǎo)致碰撞?!?/p>
像德拉甘這樣的研究人員正在應(yīng)對這樣的挑戰(zhàn),即解釋和預(yù)測人類行為,以便讓無人駕駛汽車變得更安全、更高效、更自信。畢竟,如果每臺機器都要為每個無法預(yù)測行為的人停下來,我們很快就會被數(shù)百萬驚恐的機器人堵塞街道。
為了防止交通堵塞,這些研究人員正依靠人工智能(AI)以及教授駕駛系統(tǒng)的能力,通過建模和反復(fù)觀察這些行為意味著什么,以及系統(tǒng)應(yīng)該如何對它們做出反應(yīng)。事實上,無人駕駛汽車首先應(yīng)該意識到,人類并不是障礙。德拉甘說:“不同于風(fēng)滾草在風(fēng)力作用下的移動方式,人類移動取決于他們的決定。當(dāng)他們想做點兒什么時,他們會采取行動去實現(xiàn)。我們首先考慮的是根據(jù)他們目前所采取的行動來推斷人們想要做什么。因此,從這個角度來看,他們的行為是理性的。”
舉例來說,在高速公路的右車道上,一名司機加速了。計算機知道人們在接近出口的時候應(yīng)該減速,并且可以推斷出這個人很可能會繼續(xù)向前走,而不是在即將到來的出口退出。這是一個基本的例子:當(dāng)計算機能夠估算出人們想要做什么,以及如何實現(xiàn)目標(biāo)時,它們就可以合理地預(yù)測人們下一步要做什么,并做出相應(yīng)的反應(yīng)。
關(guān)鍵在于,即使是機器學(xué)習(xí),也不能被場景中的個別元素限制住。日產(chǎn)公司硅谷研發(fā)中心的人類學(xué)家梅麗莎·塞弗金(MelissaCefkin)表示:“在這個領(lǐng)域取得進(jìn)展是非常重要,但機器只是看到了道路上的情況。而作為人類,我們更擅長識別出某些特定行為,這些行為在機器看起來是一回事兒,但從我們的社會視角角度來看,則是另外一回事?!?/p>
想象一下,當(dāng)你沿著城市街區(qū)開車時,看到一個人正走向路邊。機器人司機可能會計算出他的速度和軌跡,確定他可能要過馬路,然后停車以免撞到他。但你看到他拿著車鑰匙,意識到他正走向街邊,并來到他停在路邊的車門處。你肯定會放慢速度,但沒有必要停車。塞弗金表示:“人們在特定環(huán)境中的移動方式已經(jīng)在文化和社會上被編碼了。這不總是人與人之間的互動,而是人與物體之間的互動?!?/p>
這依然是一個很簡單的例子。塞弗金指出她所謂的“多因素問題”,即行人和其他司機對周圍的人做出的反應(yīng)。她說:“如果一個行人要在我前面穿過,但卻沒有看著我,他們很可能會造成交通堵塞問題。所以現(xiàn)在我想知道的是,基于其他交通狀況,繼續(xù)行駛進(jìn)行下去是否安全。”
現(xiàn)在看來,世界似乎正朝著某種“駕駛地獄”的方向前進(jìn),但你無需感到擔(dān)憂。塞弗金說,教授基于AI的無人駕駛系統(tǒng)適應(yīng)人類的古怪行為是很困難的,但絕非不可能。達(dá)利烏·加夫里拉(DariuGavrila)正在德爾夫特理工大學(xué)研究智能汽車,訓(xùn)練電腦應(yīng)對各種挑戰(zhàn),包括通過復(fù)雜的十字路口(存在各種移動目標(biāo)、道路碎片、交通警察)以及其他不尋常的事情,比如有人在街道中間推車。加夫里拉說,他的目標(biāo)是為機器開發(fā)出一種適應(yīng)性更強的駕駛方式,從而增強社會對新硬件的接受程度。
這項工作意味著,需要考慮到環(huán)境中的行人交通因素,比如接近路邊、車道或公共建筑入口以及其他行為等。它還要延伸到每個人的動作上,比如某人的頭朝一個方向看,而他們的軀干指向另一個方向,這可能意味著什么。加夫里拉說:“識別行人的意圖可能是一個拯救生命的辦法。我們在真車演示中證明,無人系統(tǒng)可以比人類的反應(yīng)快一秒鐘,而且不會產(chǎn)生錯誤警報?!?/p>
不過,計算機能做的事情畢竟是有限制的。加夫里拉指出:“這不是少數(shù)派報告,沒有人會告訴你即將發(fā)生什么。隨著預(yù)測水平的提高,未來行人或騎單車者的不確定性也在迅速增加,未來我們將在多少秒內(nèi)嘗試建模。基本行為模型一秒鐘后就不再有用了。更復(fù)雜的行為模型可能會讓我們有兩秒鐘的預(yù)測能力?!?/p>
盡管如此,一兩秒鐘的提前警告可能就是計算機化系統(tǒng)所需要的,因為它依然在人類響應(yīng)的時間范圍之內(nèi)。但其他自動化專家認(rèn)為,我們可能會讓機器在駕駛的每一微秒內(nèi)都陷入“過度思考”的狀態(tài)。英特爾公司無人駕駛系統(tǒng)首席系統(tǒng)架構(gòu)設(shè)計師杰克·韋斯特(JackWeast)說:“當(dāng)你在試圖預(yù)測未來時,這是一項巨大的計算任務(wù),當(dāng)然它只是產(chǎn)生了一種可能性的猜測。所以,與其把超級計算機裝進(jìn)每輛車?yán)铮€不如仔細(xì)想想如何確保汽車永遠(yuǎn)不會撞上任何人。這是一種更經(jīng)濟(jì)可行的做事方式?!?/p>
這里還有另一個問題。理想的機器人不僅能理解周圍的環(huán)境,還能理解它自身是如何改變場景的。德拉甘說,許多機器人系統(tǒng)都存在內(nèi)在缺陷:他們的制造商認(rèn)為,無人駕駛汽車的出現(xiàn)不會改變其他“演員”的動作。但德拉甘認(rèn)為:“不管我們喜歡與否,無人駕駛汽車的行為都會影響人類的行為。汽車需要開始考慮這種影響?!?/p>
這就是為什么德拉甘及其團(tuán)隊建立新系統(tǒng)的原因,他們的模型中包括了人類司機對汽車的反應(yīng)模式。她說:“我們的汽車不再是超防御性的,因為它知道自己也能引發(fā)人們的反應(yīng)。就像我們的車輛在其他車輛前面并道時,后者會減速一樣。我們還通過利用無人駕駛汽車的行動來積極預(yù)估人類的意圖?!?/p>
這種自信訓(xùn)練可能是未來交通的關(guān)鍵。打造機器人汽車的關(guān)鍵在于,它不僅應(yīng)該擁有類似人類的意識,還應(yīng)被賦予像人類一樣的能力。
更多資訊請關(guān)注汽車制造頻道