無人駕駛汽車需學(xué)會像人類那樣思考才能得以在街頭生存

時間:2017-10-23

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:10月21日消息,據(jù)外媒報道,下次當(dāng)你開車或在街上行走的時候,停下來想一想你是怎么了解周圍環(huán)境的。

10月21日消息,據(jù)外媒報道,下次當(dāng)你開車或在街上行走的時候,停下來想一想你是怎么了解周圍環(huán)境的。你要特別注意在前院草坪上踢足球的孩子,以及那個看起來有點兒不穩(wěn)、神情緊張的騎單車者。你不能被街頭大步行走的女人分散注意力,雖然她正走向人行道上向她揮手的一群朋友。

你需要大量的社會和文化經(jīng)驗來做這些事,但你幾乎不需要去思考就能本能地得出結(jié)論??墒窍胂笠幌拢偃缒闶且惠v無人駕駛汽車,想要做同樣的事情,但卻沒有積累的知識或共享的人性,它們可以讓你從其他人的細(xì)微行為中解讀出線索。把每個行人、騎單車者以及車輛都當(dāng)作障礙對待,可以讓你避免撞上任何東西,但這也很容易讓你被隔離。

美國加州大學(xué)伯克利分校電子工程與計算機科學(xué)系的自動化專家安卡·德拉甘(AncaDragan)表示:“我們把它稱為冷凍機器人問題。汽車所能做的任何事都太危險了,因為只有最糟糕的人類行為才可能會導(dǎo)致碰撞?!?/p>

像德拉甘這樣的研究人員正在應(yīng)對這樣的挑戰(zhàn),即解釋和預(yù)測人類行為,以便讓無人駕駛汽車變得更安全、更高效、更自信。畢竟,如果每臺機器都要為每個無法預(yù)測行為的人停下來,我們很快就會被數(shù)百萬驚恐的機器人堵塞街道。

為了防止交通堵塞,這些研究人員正依靠人工智能(AI)以及教授駕駛系統(tǒng)的能力,通過建模和反復(fù)觀察這些行為意味著什么,以及系統(tǒng)應(yīng)該如何對它們做出反應(yīng)。事實上,無人駕駛汽車首先應(yīng)該意識到,人類并不是障礙。德拉甘說:“不同于風(fēng)滾草在風(fēng)力作用下的移動方式,人類移動取決于他們的決定。當(dāng)他們想做點兒什么時,他們會采取行動去實現(xiàn)。我們首先考慮的是根據(jù)他們目前所采取的行動來推斷人們想要做什么。因此,從這個角度來看,他們的行為是理性的。”

舉例來說,在高速公路的右車道上,一名司機加速了。計算機知道人們在接近出口的時候應(yīng)該減速,并且可以推斷出這個人很可能會繼續(xù)向前走,而不是在即將到來的出口退出。這是一個基本的例子:當(dāng)計算機能夠估算出人們想要做什么,以及如何實現(xiàn)目標(biāo)時,它們就可以合理地預(yù)測人們下一步要做什么,并做出相應(yīng)的反應(yīng)。

關(guān)鍵在于,即使是機器學(xué)習(xí),也不能被場景中的個別元素限制住。日產(chǎn)公司硅谷研發(fā)中心的人類學(xué)家梅麗莎·塞弗金(MelissaCefkin)表示:“在這個領(lǐng)域取得進(jìn)展是非常重要,但機器只是看到了道路上的情況。而作為人類,我們更擅長識別出某些特定行為,這些行為在機器看起來是一回事兒,但從我們的社會視角角度來看,則是另外一回事?!?/p>

想象一下,當(dāng)你沿著城市街區(qū)開車時,看到一個人正走向路邊。機器人司機可能會計算出他的速度和軌跡,確定他可能要過馬路,然后停車以免撞到他。但你看到他拿著車鑰匙,意識到他正走向街邊,并來到他停在路邊的車門處。你肯定會放慢速度,但沒有必要停車。塞弗金表示:“人們在特定環(huán)境中的移動方式已經(jīng)在文化和社會上被編碼了。這不總是人與人之間的互動,而是人與物體之間的互動?!?/p>

這依然是一個很簡單的例子。塞弗金指出她所謂的“多因素問題”,即行人和其他司機對周圍的人做出的反應(yīng)。她說:“如果一個行人要在我前面穿過,但卻沒有看著我,他們很可能會造成交通堵塞問題。所以現(xiàn)在我想知道的是,基于其他交通狀況,繼續(xù)行駛進(jìn)行下去是否安全。”

現(xiàn)在看來,世界似乎正朝著某種“駕駛地獄”的方向前進(jìn),但你無需感到擔(dān)憂。塞弗金說,教授基于AI的無人駕駛系統(tǒng)適應(yīng)人類的古怪行為是很困難的,但絕非不可能。達(dá)利烏·加夫里拉(DariuGavrila)正在德爾夫特理工大學(xué)研究智能汽車,訓(xùn)練電腦應(yīng)對各種挑戰(zhàn),包括通過復(fù)雜的十字路口(存在各種移動目標(biāo)、道路碎片、交通警察)以及其他不尋常的事情,比如有人在街道中間推車。加夫里拉說,他的目標(biāo)是為機器開發(fā)出一種適應(yīng)性更強的駕駛方式,從而增強社會對新硬件的接受程度。

這項工作意味著,需要考慮到環(huán)境中的行人交通因素,比如接近路邊、車道或公共建筑入口以及其他行為等。它還要延伸到每個人的動作上,比如某人的頭朝一個方向看,而他們的軀干指向另一個方向,這可能意味著什么。加夫里拉說:“識別行人的意圖可能是一個拯救生命的辦法。我們在真車演示中證明,無人系統(tǒng)可以比人類的反應(yīng)快一秒鐘,而且不會產(chǎn)生錯誤警報?!?/p>

不過,計算機能做的事情畢竟是有限制的。加夫里拉指出:“這不是少數(shù)派報告,沒有人會告訴你即將發(fā)生什么。隨著預(yù)測水平的提高,未來行人或騎單車者的不確定性也在迅速增加,未來我們將在多少秒內(nèi)嘗試建模。基本行為模型一秒鐘后就不再有用了。更復(fù)雜的行為模型可能會讓我們有兩秒鐘的預(yù)測能力?!?/p>

盡管如此,一兩秒鐘的提前警告可能就是計算機化系統(tǒng)所需要的,因為它依然在人類響應(yīng)的時間范圍之內(nèi)。但其他自動化專家認(rèn)為,我們可能會讓機器在駕駛的每一微秒內(nèi)都陷入“過度思考”的狀態(tài)。英特爾公司無人駕駛系統(tǒng)首席系統(tǒng)架構(gòu)設(shè)計師杰克·韋斯特(JackWeast)說:“當(dāng)你在試圖預(yù)測未來時,這是一項巨大的計算任務(wù),當(dāng)然它只是產(chǎn)生了一種可能性的猜測。所以,與其把超級計算機裝進(jìn)每輛車?yán)铮€不如仔細(xì)想想如何確保汽車永遠(yuǎn)不會撞上任何人。這是一種更經(jīng)濟(jì)可行的做事方式?!?/p>

這里還有另一個問題。理想的機器人不僅能理解周圍的環(huán)境,還能理解它自身是如何改變場景的。德拉甘說,許多機器人系統(tǒng)都存在內(nèi)在缺陷:他們的制造商認(rèn)為,無人駕駛汽車的出現(xiàn)不會改變其他“演員”的動作。但德拉甘認(rèn)為:“不管我們喜歡與否,無人駕駛汽車的行為都會影響人類的行為。汽車需要開始考慮這種影響?!?/p>

這就是為什么德拉甘及其團(tuán)隊建立新系統(tǒng)的原因,他們的模型中包括了人類司機對汽車的反應(yīng)模式。她說:“我們的汽車不再是超防御性的,因為它知道自己也能引發(fā)人們的反應(yīng)。就像我們的車輛在其他車輛前面并道時,后者會減速一樣。我們還通過利用無人駕駛汽車的行動來積極預(yù)估人類的意圖?!?/p>

這種自信訓(xùn)練可能是未來交通的關(guān)鍵。打造機器人汽車的關(guān)鍵在于,它不僅應(yīng)該擁有類似人類的意識,還應(yīng)被賦予像人類一樣的能力。

更多資訊請關(guān)注汽車制造頻道

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(m.u63ivq3.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0