自駕車事故如何通過技術規(guī)避?(上)

時間:2018-04-16

來源:網(wǎng)絡轉載

導語:Uber撞人事件是第一場悲劇,我們該如何讓它變成最后一場?我非常確定他們也用了仿真軟件,但大家是否仿真了傳感器故障的情況、因為距離使得光達(Lidar)采樣稀疏的效應,還有其他不可預測的事件?

Uber的自動駕駛車輛上個月在美國發(fā)生撞人致死案件,當時一篇報導“自動駕駛車們,請先跑完仿真再上路測試好嗎?”;在文章發(fā)表之后,高通(Qualcomm)的人工智能(AI)研發(fā)業(yè)務開發(fā)負責人RickCalle做出回應,問了我以下的問題:

Uber撞人事件是第一場悲劇,我們該如何讓它變成最后一場?我非常確定他們也用了仿真軟件,但大家是否仿真了傳感器故障的情況、因為距離使得光達(Lidar)采樣稀疏的效應,還有其他不可預測的事件?

Calle的問題指出了測試自動駕駛車輛絕非易事,要驗證自駕車不只是能運作,各種功能還必須安全運作,需要前所未有的工程嚴謹度;測試人員不僅得確定需要模擬的內(nèi)容,也要確保模擬過程使用了高保真度的感測數(shù)據(jù)。接著必須擬定測試計劃,以便為車輛供貨商提供足夠可證明的安全性能指針。

不過,在了解模擬/測試方法的細節(jié)之前,知道一件事情很重要──我們今日所知的“自動駕駛”仍然不成熟。

美國卡內(nèi)基美隆大學(CarnegieMellonUniversity)教授PhilipKoopman在最新的一篇部落格文章中寫道,在Uber事故導致行人ElaineHerzberg身亡的并非全自動駕駛車輛,她是受害者,是因為一輛仍在開發(fā)階段的“未經(jīng)實證的測試車”,還有“應該要確保技術故障不會導致傷害的那個安全駕駛”。

讓我們一起想想…過去一年半以來,科技業(yè)者(還有媒體)忙著促成全自動駕駛車輛的即將實現(xiàn),卻漠視了無數(shù)揮之不去的、關于自動駕駛的“未知”;這里的“未知”,我指的是自動駕駛車輛所衍生出的、科技產(chǎn)業(yè)幾乎還未開始處理的議題,更不用說提出因應策略。

我們詢問過數(shù)個產(chǎn)業(yè)界消息來源──從算法開發(fā)者、測試專家,到嵌入式系統(tǒng)軟件工程師,他們?nèi)哉J為開發(fā)“安全的”自動駕駛車輛是一個不確定的議題或挑戰(zhàn),雖然他們的回答各異,卻都坦承自駕車還有很多議題,有待來自科技與汽車產(chǎn)業(yè)的回答。

預測性感知

自駕車技術開發(fā)商DeepScale執(zhí)行長ForrestIandola在談到Uber事故時表示,除非Uber公布行車紀錄器以外的數(shù)據(jù)──包括車上的雷達與攝影機在事故發(fā)生時所看到的──外界人士可能永遠不會知道事故發(fā)生原因:“我們需要透明的信息,不然很難知道他們的感知系統(tǒng)、動作規(guī)劃或是地圖繪制等功能究竟哪里出錯?!?/p>

DeepSale是一家成立于2015年的新創(chuàng)公司,專門為先進駕駛輔助系統(tǒng)(ADAS)與自動駕駛車輛開發(fā)深度學習感知軟件;根據(jù)該公司已經(jīng)學到的經(jīng)驗,Iandola解釋,大多數(shù)為自駕車設計的感知系統(tǒng)是產(chǎn)業(yè)界與學術界“精心打造”,舉例來說,光達已經(jīng)可以清楚辨識3D目標物的形狀,同時自駕車的“語義”(semantic)感知在物體分類方面也有所改善。

不過仍缺乏的,是“預測性感知”(predictiveperception);Iandola指出:“預測性感知技術的研發(fā)幾乎還沒開始?!?/p>

舉例來說,如果自駕車不能預測某目標物在5秒后的可能位置,就不能決定是否該煞車或轉向,甚至是在看到該目標物體后?!霸谶\動規(guī)劃與預測性信息之間需要一個標準接口,”Iandola表示:“如果這個問題沒有解決,我的說要實現(xiàn)Level4自駕車真的很困難。”

極端案例能模擬嗎?

在公開道路上測試自動駕駛車輛之前的模擬顯然非常重要,但更重要的是實際上如何模擬。安全自動駕駛車輛系統(tǒng)開發(fā)商EdgeCaseResearch共同創(chuàng)辦人暨執(zhí)行長MichaelWagner表示,對自駕車開發(fā)者來說有一個壞消息是,盡管累積了數(shù)十億英哩的模擬駕駛里程,也不一定能涵蓋自駕車可能遭遇的所謂“極端案例”或“邊緣案例”。

在過去幾年,深度學習芯片供貨商耗費大量資源,宣傳深度學習算法可能實現(xiàn)全自動駕駛系統(tǒng),這種算法可能讓自駕車發(fā)展出類似人類的能力,能在不需要知道每一種可能情況的前提下識別不同圖形。

依賴深度學習的自動駕駛系統(tǒng)能被訓練,發(fā)展出類似人類的能力(來源:DriveSafely)

不過來自反面的聲音是,當機器學習或深度學習系統(tǒng)遭遇以往未見過的事物──被稱為長尾(longtail)或離群值(outlier)──會被“嚇到”;而人類駕駛在面臨實在異常的狀況時,至少會有的反應是覺得奇怪,他們知道在某種程度上需要有所反應,而機器則可能不會記錄極端異常的情況,會繼續(xù)往前走。

Wagner表示,EdgeCaseResearch專注于建立這樣的極端情況,以納入仿真軟件平臺;他坦承一切還在早期開發(fā)階段,該公司的平臺代號為“全像”(Hologram),目標是將實體車輛所行駛過的每一英哩轉化為數(shù)百萬計的可能場景,盡可能快速且安全地根除“未知的未知”。

要為自動駕駛車輛建立這種“極端案例”并不簡單;Wagner指出,在歐洲有一個名為Pegasus的項目利用了一種數(shù)據(jù)庫方法來確保自動駕駛安全,但挑戰(zhàn)在于該項目的某部份場景,可能對神經(jīng)網(wǎng)絡來說不一定重要。

Wagner表示,也就是說,我們其實并不知道神經(jīng)網(wǎng)絡會發(fā)現(xiàn)什么難題或不容易處理的情況,更別說為何神經(jīng)網(wǎng)絡會有那樣的行為模式:“隨機性對于建立異常案例非常重要,我們利用實際的場景,在影像上做不少變化,然后在我們的Hologram平臺上進行細微修改?!?/p>

他將Hologram形容為一個試驗專案:“我們正在向投資者推銷這個平臺,以擴大它的規(guī)模。”而自動駕駛系統(tǒng)帶給汽車業(yè)者的最大沖擊,就是軟件內(nèi)容不斷膨脹…

中傳動網(wǎng)版權與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(wǎng)(m.u63ivq3.com)獨家所有。如需轉載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內(nèi)容、版權等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0