Uber的自動駕駛車輛上個月在美國發(fā)生撞人致死案件,當時一篇報導“自動駕駛車們,請先跑完仿真再上路測試好嗎?”;在文章發(fā)表之后,高通(Qualcomm)的人工智能(AI)研發(fā)業(yè)務開發(fā)負責人RickCalle做出回應,問了我以下的問題:
Uber撞人事件是第一場悲劇,我們該如何讓它變成最后一場?我非常確定他們也用了仿真軟件,但大家是否仿真了傳感器故障的情況、因為距離使得光達(Lidar)采樣稀疏的效應,還有其他不可預測的事件?
Calle的問題指出了測試自動駕駛車輛絕非易事,要驗證自駕車不只是能運作,各種功能還必須安全運作,需要前所未有的工程嚴謹度;測試人員不僅得確定需要模擬的內(nèi)容,也要確保模擬過程使用了高保真度的感測數(shù)據(jù)。接著必須擬定測試計劃,以便為車輛供貨商提供足夠可證明的安全性能指針。
不過,在了解模擬/測試方法的細節(jié)之前,知道一件事情很重要──我們今日所知的“自動駕駛”仍然不成熟。
美國卡內(nèi)基美隆大學(CarnegieMellonUniversity)教授PhilipKoopman在最新的一篇部落格文章中寫道,在Uber事故導致行人ElaineHerzberg身亡的并非全自動駕駛車輛,她是受害者,是因為一輛仍在開發(fā)階段的“未經(jīng)實證的測試車”,還有“應該要確保技術故障不會導致傷害的那個安全駕駛”。
讓我們一起想想…過去一年半以來,科技業(yè)者(還有媒體)忙著促成全自動駕駛車輛的即將實現(xiàn),卻漠視了無數(shù)揮之不去的、關于自動駕駛的“未知”;這里的“未知”,我指的是自動駕駛車輛所衍生出的、科技產(chǎn)業(yè)幾乎還未開始處理的議題,更不用說提出因應策略。
我們詢問過數(shù)個產(chǎn)業(yè)界消息來源──從算法開發(fā)者、測試專家,到嵌入式系統(tǒng)軟件工程師,他們?nèi)哉J為開發(fā)“安全的”自動駕駛車輛是一個不確定的議題或挑戰(zhàn),雖然他們的回答各異,卻都坦承自駕車還有很多議題,有待來自科技與汽車產(chǎn)業(yè)的回答。
預測性感知
自駕車技術開發(fā)商DeepScale執(zhí)行長ForrestIandola在談到Uber事故時表示,除非Uber公布行車紀錄器以外的數(shù)據(jù)──包括車上的雷達與攝影機在事故發(fā)生時所看到的──外界人士可能永遠不會知道事故發(fā)生原因:“我們需要透明的信息,不然很難知道他們的感知系統(tǒng)、動作規(guī)劃或是地圖繪制等功能究竟哪里出錯?!?/p>
DeepSale是一家成立于2015年的新創(chuàng)公司,專門為先進駕駛輔助系統(tǒng)(ADAS)與自動駕駛車輛開發(fā)深度學習感知軟件;根據(jù)該公司已經(jīng)學到的經(jīng)驗,Iandola解釋,大多數(shù)為自駕車設計的感知系統(tǒng)是產(chǎn)業(yè)界與學術界“精心打造”,舉例來說,光達已經(jīng)可以清楚辨識3D目標物的形狀,同時自駕車的“語義”(semantic)感知在物體分類方面也有所改善。
不過仍缺乏的,是“預測性感知”(predictiveperception);Iandola指出:“預測性感知技術的研發(fā)幾乎還沒開始?!?/p>
舉例來說,如果自駕車不能預測某目標物在5秒后的可能位置,就不能決定是否該煞車或轉向,甚至是在看到該目標物體后?!霸谶\動規(guī)劃與預測性信息之間需要一個標準接口,”Iandola表示:“如果這個問題沒有解決,我的說要實現(xiàn)Level4自駕車真的很困難。”
極端案例能模擬嗎?
在公開道路上測試自動駕駛車輛之前的模擬顯然非常重要,但更重要的是實際上如何模擬。安全自動駕駛車輛系統(tǒng)開發(fā)商EdgeCaseResearch共同創(chuàng)辦人暨執(zhí)行長MichaelWagner表示,對自駕車開發(fā)者來說有一個壞消息是,盡管累積了數(shù)十億英哩的模擬駕駛里程,也不一定能涵蓋自駕車可能遭遇的所謂“極端案例”或“邊緣案例”。
在過去幾年,深度學習芯片供貨商耗費大量資源,宣傳深度學習算法可能實現(xiàn)全自動駕駛系統(tǒng),這種算法可能讓自駕車發(fā)展出類似人類的能力,能在不需要知道每一種可能情況的前提下識別不同圖形。
依賴深度學習的自動駕駛系統(tǒng)能被訓練,發(fā)展出類似人類的能力(來源:DriveSafely)
不過來自反面的聲音是,當機器學習或深度學習系統(tǒng)遭遇以往未見過的事物──被稱為長尾(longtail)或離群值(outlier)──會被“嚇到”;而人類駕駛在面臨實在異常的狀況時,至少會有的反應是覺得奇怪,他們知道在某種程度上需要有所反應,而機器則可能不會記錄極端異常的情況,會繼續(xù)往前走。
Wagner表示,EdgeCaseResearch專注于建立這樣的極端情況,以納入仿真軟件平臺;他坦承一切還在早期開發(fā)階段,該公司的平臺代號為“全像”(Hologram),目標是將實體車輛所行駛過的每一英哩轉化為數(shù)百萬計的可能場景,盡可能快速且安全地根除“未知的未知”。
要為自動駕駛車輛建立這種“極端案例”并不簡單;Wagner指出,在歐洲有一個名為Pegasus的項目利用了一種數(shù)據(jù)庫方法來確保自動駕駛安全,但挑戰(zhàn)在于該項目的某部份場景,可能對神經(jīng)網(wǎng)絡來說不一定重要。
Wagner表示,也就是說,我們其實并不知道神經(jīng)網(wǎng)絡會發(fā)現(xiàn)什么難題或不容易處理的情況,更別說為何神經(jīng)網(wǎng)絡會有那樣的行為模式:“隨機性對于建立異常案例非常重要,我們利用實際的場景,在影像上做不少變化,然后在我們的Hologram平臺上進行細微修改?!?/p>
他將Hologram形容為一個試驗專案:“我們正在向投資者推銷這個平臺,以擴大它的規(guī)模。”而自動駕駛系統(tǒng)帶給汽車業(yè)者的最大沖擊,就是軟件內(nèi)容不斷膨脹…