無人駕駛、深度學習、人工智能與社會……Mobileye的CTO在CVPR上的演講還說了些啥?

瀏覽量
【摘要】:
在美國時間6月27日下午舉行的CVPR2016大會上,作為僅有的三個受邀公開演講的嘉賓之一的Mobileye的聯合創始人及CTO Amnon Shashua發表了其基于自動駕駛主題的演講。Mobileye占據了ADAS市場90%的市場份額,連Tesla也搭載了其開發的系統。Amnon Shashua作為著名的希伯來大學的計算機科學教授,在無人駕駛和人工智能領域也是積累了豐富的經驗。雷鋒網聽譯了Amnon Shashua在CVPR上進行的公開演講,選取了其中的重點部分發布出來同大家分享。讓我們一起看看這位ADAS領域的領袖級人物對自動駕駛、深度學習、汽車市場等都有怎樣的理解。
 
演講中的Amnon Shashua
 
Amnon Shashua:
 
大家好,我想起了不久前我們公司只有500人的時候,參加了CVPR會議,我們那時已經把取得的成就視為了一個巨大的成功。而現在我們已經有3600人了,真是讓我感慨萬分。我今天要講的是從Mobileye出發,談談現在的自動駕駛,這也是你們在PPT的左下角看到Mobileye的logo的原因。今天的演講不是那種告訴大家怎么做到這件事的演講,我更傾向于跟大家聊聊,要完成這樣一件事我們該做什么。我總是跟我的學生說,世界上的研究其實有80%是在尋找到底該做什么的過程,一旦找到了,剩下的那20%你不做也總有人會去做完的。知道該向什么方向努力才是最重要的事。
 
我會跟大家講講自動駕駛、機器學習等等這些東西和他們已經造成或即將造成的沖擊和震撼。
 
為什么要發展自動駕駛?
我們為什么覺得自動駕駛是必要的呢?在這里我會講兩個方面的原因。其中一個是很明顯的,如果你是一個新入行的,想知道為什么要發展自動駕駛汽車的從業人員,那你去谷歌就能搜到這些信息。比如:我們的汽車有96%的時間是閑置的,只有4%的時間在使用,利用率非常低。
 
 
并且車上各式各樣的傳感器可以讓乘客獲得更多定制化服務。
 
不過我也可以在這里跟大家說一些不那么明顯的原因。現在科技界普遍有一個共識:未來將由人工智能和機器人驅動,只是最后的社會和商業結構尚不清楚。
 
很多公司做出了很不錯的聊天機器人,但是實際上我們還不知道它們能用來做什么,這些東西真的值得投入那么多錢去研發嗎?又比如看看波士頓動力,他們做出了很多很厲害的機器人,我是說,真的很厲害,但實際上我們確實還不清楚它們能用來做什么。我們確實還不知道AI和機器人在我們未來的社會結構中會扮演一個什么樣的角色。
 
但是看看汽車,汽車絕對是一個非常適合用來發展AI的平臺。因為它需要有各種各樣的傳感器和計算平臺、要讓它能夠自動駕駛,它需要在駕駛方面有接近人類的認知能力。所以我們需要幫助車輛駕駛的傳感器,也需要能理解乘客在做什么,想做什么的傳感器。這些都需要AI的幫助。而通過獲取這些信息我們也能開發出新的服務乘客的方式。所以汽車很適合用來發展成熟的AI技術和相關的商業模式,一旦我們在這個領域將AI發展成熟了,我們就可以把它應用到其他領域去。
 
支撐自動駕駛的三個支柱
 
 
我認為自動駕駛系統的完善需要三個方面技術的支持。它們分別是:
 
傳感技術(Sensing):傳感器得到環境數據,將其傳達到計算設備,再由其中的環境模型決定車輛行為,這是目前定義最明晰和成熟的一個領域。
 
地圖繪制(Mapping):自動駕駛汽車需要建立非常精確的地圖,方便應對路況。這個領域的定義就沒有傳感技術那么明晰了。
 
駕駛策略/路線規劃(Driving policy):機器不是路上唯一的個體。就像人類需要去駕校一樣,機器也需要學習如何遵守交通規則、何時該走,何時該停,等等,均需要訓練和規定。而我們需要將這些翻譯成技術信息,讓機器能夠理解。
 
這三項需求必須要同時發展,作為一個整體來考慮,因為如果不這樣,就會陷入過度需求(unreasonable demands)的誤區。
 
早年我們曾有一款產品,可以幫車輛測量跟各種障礙物的距離,以避免與其相撞。但是當時行業并不相信他們能做到這一點,又一次我自己去和客戶溝通,客戶表示我們不可能做到,但實際上我們真的是可以的。我跟他們說,這個產品并不需要精確到這種程度。因為我們自己開車的時候也不可能對物體的距離有多精確的測量。比如說,你開車的時候能精確的看出前面那個東西離你有99.8米嗎?不可能,也不需要,我們只要能大概估計出它的距離就可以了。這就是過度需求。只有將這三項放在一起綜合考慮,才能避免它的發生。
 
傳感技術
 
傳感器是關于自動駕駛定義最精確的技術
 
關于傳感器的選擇和使用有兩點比較常見的疑問。第一點是,為什么一定要用相機?(而不是雷達、紅外傳感器這樣的東西來作為主要測量依據)
 
第一是因為分辨率,相機的分辨率遠遠高于其他類型的傳感器。那為什么分辨率這么重要呢?因為你需要細節,細節越多越好。可能你能通過某些手段減少對細節的需求。但是那解決的就是另外一個問題了。
 
第二,相機是唯一一個除了物體的“形狀”,還能告訴你物體的“外觀”的技術。很多信息是只能通過對外觀的掃描來讀取的,比如路標、紅綠燈等。
 
一個“環境模型”需要的東西
 
我們要建立一個完美的環境模型,首先需要多個傳感器,精確的判斷周圍的所有物體,錯誤率需要降至0%——不過其實這些是ADAS(高級輔助駕駛系統)繼續發展就會自然完成的進步,不是什么飛躍性進展。
 
我們需要對行進路線上可用的駕駛空間做出精確的判斷,算法要知道自己能開去哪里,不能開去哪里。——這是一項小的飛躍,但仍與自動駕駛沒有太大關系,只要輔助駕駛系統繼續發展,要不了幾年就能擁有這樣的技術。
 
最難的一點是偵測出所有駕駛路線。需要綜合路上所有的信息,計算出自己應該如何駕駛到自己想去的地方,這是最大的挑戰,也是最大的飛躍
 
物體偵測
 
為什么需要多個面向不同方向的相機?
 
因為在城市中的環境遠比高速路上復雜,如下圖所示,必須要有足夠多的傳感器才能收集到能確保順利和安全行車的信息。
 
我們可以看到,自動駕駛系統在所有車輛邊上都加上了立體邊框。為其與車輛的關系標上了不同的顏色
 
無人駕駛、深度學習、人工智能與社會……Mobileye的CTO在CVPR上的演講還說了些啥?
位置關系的標記是有必要的,比如如果一輛車停在了你的右邊(假設你的國家交通規則是靠右行駛),你需要知道車門隨時可能打開,而司機會走出來,所以需要和它保持一定距離。
 
只是在車上加上邊框是不夠的,因為城市的環境太復雜了。這個邊框必須是3D的,才能給你提供足夠的參考數據。所以下次大家如果看見了一個關于怎么在車上加邊框的論文,就可以直接跳過去看下一篇了,因為這東西實在是沒有什么意義。(笑)
 
可用空間判斷
 
在說這點之前我想提一下深度學習。
 
深度學習現在的研究有點繞遠路了
 
深度學習真正的突破會體現在什么地方?我想應該是在特征提取上。
 
我們不應該再手動去提取特征,不要再考慮什么LDP啊,貪婪算法啊,這樣亂七八糟的我們現在需要考慮的問題。算法應該要自動去學會這些才對。
 
這不是什么很震撼的消息,因為這是常理:我們如果在工作中被指派來解決一些問題,只要我們有足夠的時間,我們肯定能發現一種解決它的方法。發現問題的特征,尋找到它的解決方法。現在的深度學習算法可能運算速度比人更快,比人更精確,但它不是什么革命性的東西,不算是什么突破。它現在只能解決那些我們已經深入了解的東西,而真正有用的算法,應該要能解決那些我們現在解決不了的問題。
 
不過深度神經網絡取得的進步仍然很值得高興,我們也在我們的行車算法中應用了深度學習,它的表現很好,能幫助我們區分環境特征,這是非常重要的。
 
這是一個示例,上圖中的綠色區域就是算法標記出來的可活動的空間。
 
双色球2019052