外媒:礙于目前的AI瓶頸,全自動駕駛汽車可能要花比預(yù)期中更長的時間才會面市

時間:2018-07-10

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:國外媒體近日刊文稱,包括特斯拉、谷歌和Uber在內(nèi)的多家公司都在開發(fā)全自動駕駛技術(shù)。然而質(zhì)疑者認為,由于現(xiàn)有人工智能技術(shù)的瓶頸,全自動駕駛汽車可能要花比預(yù)期中更長的時間才會面市。

【外媒:礙于目前的AI瓶頸,全自動駕駛汽車可能要花比預(yù)期中更長的時間才會面市】國外媒體近日刊文稱,包括特斯拉、谷歌和Uber在內(nèi)的多家公司都在開發(fā)全自動駕駛技術(shù)。然而質(zhì)疑者認為,由于現(xiàn)有人工智能技術(shù)的瓶頸,全自動駕駛汽車可能要花比預(yù)期中更長的時間才會面市。

以下為文章主要內(nèi)容:

如果你相信公司CEO們的說法,那么也許會認為,一輛可完全自動駕駛汽車距離面市可能只有幾個月時間。

2015年,特斯拉CEO埃隆·馬斯克(ElonMusk)預(yù)測,到2018年,特斯拉將推出全自動駕駛汽車。谷歌也是如此。Delphi和MobileEye的Level4自動駕駛系統(tǒng)目前計劃在2019年推出。同年,Nutonomy將在新加坡街道上部署數(shù)千輛無人駕駛出租車。通用汽車將于2019年投產(chǎn)一款全自動駕駛汽車,這款汽車沒有方向盤,也無法由人工干預(yù)。在這些預(yù)測背后,企業(yè)投入了真金白銀,并基于這樣的假設(shè):軟件發(fā)展能趕得上表面上的熱鬧。

簡單來看,我們目前距離全自動駕駛已非常接近。Waymo已經(jīng)在亞利桑那州公共道路上測試此類汽車。特斯拉和多家其他公司已銷售自動駕駛系統(tǒng)的基礎(chǔ)版本,這樣的系統(tǒng)在發(fā)生意外情況時仍然需要司機來干預(yù)。在這個過程中,發(fā)生了一些事故,有人喪生。但只要系統(tǒng)持續(xù)改進,邏輯不斷優(yōu)化,我們就能做到完全不需要人工介入。

然而,全自動駕駛汽車可能比我們想象中更遠。人工智能專家越來越擔(dān)心,自動駕駛系統(tǒng)如果想要可靠地避免事故,那么可能需要幾年到幾十年的時間。自我訓(xùn)練的系統(tǒng)需要面對現(xiàn)實世界的混亂,而紐約大學(xué)加里·馬庫斯(GaryMarcus)這樣的專家正準(zhǔn)備調(diào)整原先的預(yù)期。有些時候,這也被稱作“人工智能的冬天”。技術(shù)發(fā)展的推遲可能會給指望自動駕駛技術(shù)的公司帶來災(zāi)難性后果,讓整整一代產(chǎn)品無法實現(xiàn)完全的自動化。

我們可以很容易地理解,為什么汽車廠商對自動駕駛持樂觀態(tài)度。過去10年中,基于機器學(xué)習(xí)算法來處理大數(shù)據(jù)集的深度學(xué)習(xí)技術(shù)推動了人工智能和科技行業(yè)的巨大發(fā)展。深度學(xué)習(xí)被用于谷歌搜索、Facebook消息流、會話式的語音轉(zhuǎn)文本算法,以及強大的圍棋系統(tǒng)。在互聯(lián)網(wǎng)行業(yè)以外,我們利用深度學(xué)習(xí)技術(shù)來探測地震、預(yù)測心臟病,以及標(biāo)記出攝像機鏡頭前的可疑行為。如果沒有深度學(xué)習(xí),這一切都是不可能的。

然而,深度學(xué)習(xí)需要大量訓(xùn)練數(shù)據(jù)才能正確工作,需要包含算法可能遇到的幾乎所有場景。例如,類似谷歌圖片的系統(tǒng)只要獲得足夠的訓(xùn)練數(shù)據(jù),告訴它每種動物長什么樣,那么就能很好地去識別動物。馬庫斯將此類任務(wù)稱作“插值”,即對所有已標(biāo)記的圖片進行分析,判斷新圖片是否屬于某個群組。

在數(shù)據(jù)來源和結(jié)構(gòu)方面,工程師可以很有創(chuàng)新性。然而,算法有自身的極限。除非預(yù)先向算法提供大量豹子的圖片,否則算法無法識別出什么是豹子,即使這個算法此前已經(jīng)能識別家貓和美洲虎,并且知道豹子的長相介于兩者之間。這個過程被稱作“泛化”,需要完全不同的能力集。

很長一段時間以來,研究者認為,可以使用正確的算法來優(yōu)化泛化能力,但最近的研究表明,傳統(tǒng)的深度學(xué)習(xí)在泛化能力方面甚至比我們想象中還要糟糕。研究發(fā)現(xiàn),傳統(tǒng)的深度學(xué)習(xí)系統(tǒng)很難在一段視頻的不同幀之間進行泛化,例如由于背景的細微變化將同一只北極熊貼上了狒狒、貓鼬和黃鼠狼的標(biāo)簽。由于每個分類都基于數(shù)百個因素的共同作用,因此圖片的微小改變就會完全改變系統(tǒng)判斷。其他研究員已經(jīng)在對抗數(shù)據(jù)集中利用過這點。

馬庫斯指出,聊天機器人狂熱是關(guān)于泛化問題的最新例子。他表示:“2015年時,我們得到了關(guān)于聊天機器人的承諾。然而,這些聊天機器人表現(xiàn)得并不好,這并不僅僅是收集數(shù)據(jù)的問題。當(dāng)你在網(wǎng)上和他人交談時,你不希望他們總是重復(fù)之前的話。你希望他們能對你的話做出回應(yīng),有更多樣的對話技巧,給你不同于他人的回應(yīng)。深度學(xué)習(xí)技術(shù)并不能開發(fā)出這樣的聊天機器人。一旦最初的狂熱退去,企業(yè)就會對聊天機器人項目失去信心。目前,很少還有公司仍在積極開發(fā)聊天機器人?!?/p>

這就讓特斯拉和其他自動駕駛公司面臨一個可怕的問題:自動駕駛汽車能否與圖像搜索、語音識別和人工智能等其他成功應(yīng)用類似,持續(xù)得到優(yōu)化?它們是否會像聊天機器人一樣,遇到泛化問題?自動駕駛是插值問題還是泛化問題?駕駛過程中的不可預(yù)見性究竟有多少?

現(xiàn)在回答這些問題還為時過早。馬庫斯說:“無人駕駛汽車就像個科學(xué)實驗,我們不知道答案?!蔽覀儚膩頉]有實現(xiàn)過這種水平的自動駕駛,因此不知道這是種什么樣的任務(wù)。就識別熟悉的對象和遵循規(guī)則而言,現(xiàn)有的技術(shù)能很好地完成。然而馬庫斯擔(dān)心,在易發(fā)生事故的情況下很好地完成駕駛,這要比汽車行業(yè)想象中復(fù)雜得多?!瓣P(guān)于如何處理意料之外的新東西,深度學(xué)習(xí)做得并不好?!?/p>

我們獲得的實驗數(shù)據(jù)來自公開的事故報告,所有這些報告都提供了一些不同尋常的細節(jié)。在2016年的車禍中,一輛特斯拉ModelS全速撞向一輛白色半掛卡車的尾部。當(dāng)時,半掛卡車的高度和明亮的陽光令自動駕駛系統(tǒng)發(fā)生誤判。今年3月,Uber的無人駕駛汽車撞到一名推著自行車的女性,當(dāng)時后者突然橫穿馬路。根據(jù)美國交通運輸安全委員會(NTSB)的報告,Uber的軟件最開始將這名女性錯誤地識別為未知物體,隨后是一輛汽車,最終是一輛自行車。在加州的另一場事故中,一輛ModelX朝著障礙物行駛,在碰撞前還在加速,系統(tǒng)這樣做的原因目前仍不清楚。

每場事故看起來都像是個邊緣案例,即工程師無法預(yù)料的情況。然而,幾乎每場事故都涉及了不可預(yù)見的場景。如果缺乏泛化能力,無人駕駛汽車將不得不一個又一個地學(xué)習(xí)新情況,而最終結(jié)果就是一連串的意外事故,且安全性無法隨時間推移得到改善。如果懷疑這個結(jié)論,那么可以看看人工干預(yù)自動駕駛系統(tǒng)的報告。這樣的場景已經(jīng)發(fā)生,技術(shù)進步已經(jīng)進入平臺期。

Drive.AI創(chuàng)始人、百度前高管、行業(yè)最知名的推動者之一吳恩達認為,問題并不在于構(gòu)建完美的駕駛系統(tǒng),而在于告知路人如何去判斷無人駕駛汽車的行為。換句話說,我們可以嘗試讓道路交通環(huán)境對汽車來說更安全,而不是從另一個方向入手。關(guān)于不可預(yù)料的場景,我問他,他是否認為,當(dāng)前的系統(tǒng)能處理拿著手杖的行人,即使系統(tǒng)從未見過這樣的對象。他回答:“我認為,許多自動駕駛團隊都能處理人行橫道上拿著手杖的行人,但在高速公路中間這樣使用手杖會非常危險?!?/p>

他認為:“我們不應(yīng)該用人工智能去解決手杖的問題,而是應(yīng)該與政府合作,要求人們遵守交通規(guī)則,有更謹慎的考慮。安全問題并不僅僅依靠人工智能技術(shù)的質(zhì)量?!?/p>

深度學(xué)習(xí)并不是唯一的人工智能技術(shù),企業(yè)已開始探索替代方案。盡管技術(shù)在業(yè)內(nèi)受到密切保護(看看Waymo近期對Uber的訴訟就可以知道),但許多公司已經(jīng)轉(zhuǎn)向了基于規(guī)則的人工智能。這是種更古老的技術(shù),工程師會將特定行為和邏輯寫入自治的系統(tǒng)中。這種系統(tǒng)無法像深度學(xué)習(xí)一樣,通過分析數(shù)據(jù)來自主確定行為,但卻能避免深度學(xué)習(xí)的某些局限性。然而,由于基本的認知任務(wù)仍然受到深度學(xué)習(xí)技術(shù)的深刻影響,因此很難說工程師們在隔離可能的錯誤時有多成功。

Lyft董事會成員、風(fēng)險投資人AnnMiura-Ko認為,部分問題在于對自動駕駛汽車的期望過高,因此將所有非全自動駕駛的東西都歸結(jié)為失敗。他表示:“期望從0直接走到Level5本身就是不合理的,并不是技術(shù)上的失敗。我認為,所有這些微小的改進都是在通往全自動駕駛道路上取得的重要成就?!?/p>

不過仍不清楚,自動駕駛汽車目前的困境還會持續(xù)多久。類似特斯拉Autopilot的半自動駕駛產(chǎn)品已足夠智能,能處理大部分情況,但如果發(fā)生意料之外的情況,那么仍需要人工干預(yù)。因此,一旦實際發(fā)生問題,很難知道問題的原因是汽車還是司機。有些批評人士認為,即使錯誤很難完全歸咎于機器,但與人工駕駛相比,這種兩者相結(jié)合的模式可能更不安全。蘭德公司的一項研究估計,無人駕駛汽車需要行駛2.75億英里,且不發(fā)生致命的安全事故,才能證明它們和人工司機一樣安全。特斯拉Autopilot第一起致人死亡的事故發(fā)生在項目進行了1.3億英里時,距離2.75億英里還有很遠的距離。

不過,由于深度學(xué)習(xí)仍然是汽車感知對象、做出回應(yīng)的核心,優(yōu)化事故率可能比看起來更難。杜克大學(xué)教授瑪麗·卡明斯(MaryCummings)提到了今年早些時候Uber發(fā)生的致命事故?!案兄?決策周期通常相互關(guān)聯(lián),就像這起導(dǎo)致行人死亡的事故一樣。感知環(huán)節(jié)未能做出明確判斷,導(dǎo)致決策環(huán)節(jié)決定不采取任何行動。而由于傳感器提供了太多假警報,緊急制動也被關(guān)閉?!?/p>

這場事故導(dǎo)致Uber今年夏天暫停了自動駕駛項目,這對于其他計劃推出自動駕駛系統(tǒng)的公司來說不是個好兆頭。在整個行業(yè)中,各家公司都在競相獲得更多數(shù)據(jù),以解決這個問題。他們認為,積累里程數(shù)最多的公司將開發(fā)出最強大的系統(tǒng)。然而馬庫斯認為,還有更難以解決的問題:“他們只是使用已有的技術(shù),希望技術(shù)能發(fā)揮效果。他們依靠的是大數(shù)據(jù),因為這是他們的支柱,但沒有證據(jù)表明,這可以幫你達到我們需要的精確度。”

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(m.u63ivq3.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0