侵權投訴
訂閱
糾錯
加入自媒體

Waymo首席科學家在MIT自動駕駛課上開講:如何解決自動駕駛的長期挑戰(zhàn)

2019-02-27 09:43
智車科技IV
關注

那么我們如何進行大規(guī)模的路測呢?

因為特殊罕見的異常情況很少發(fā)生,如果使用真實情況進行路測,我們需要等待很長時間,為了解決這個問題,我們自己構建條道路。

因為我們有Google的數據支持所以這個想法是可行的,所以我們按照如下圖數據做出仿真模型。仿真出足夠多的場景供以測試。而我們?yōu)槭裁匆龀鋈绱硕嗟姆抡婺P湍兀?/strong>因為有時會得出截然相反的結果,所以我們要加強系統(tǒng)的魯棒性,這就要求我們做出足夠多的仿真模型,確保系統(tǒng)的準確性。

這是一種抽樣方法。

上圖正在模擬真實世界可能會發(fā)生的事情。如果想要得到準確的數據,我們需要模仿真實的人類在不同的情形下做出的真實舉動。

如何評價這個簡單的模型呢?

正面:容易調整關鍵參數,如反應時間,制動輪廓,橫向加速。有效再現避碰場景中的基本人類行為;反面:無法處理更復雜的交互行為。

但是定義它本身是一個復雜的問題,所以我們能做什么呢?那就是從實際演示中學習代理模型。

機器學習仿真的解決辦法就是構建另一個機器學習模型。

添加排列可能會出現問題,這是一個眾所周知的問題。

我們使用了非常不同的體系結構去避免碰撞,例如RNN模型。

在一條陌生的路上開著車,需要看到更多的范圍和預判更多的特殊情況,如掉頭需要處理好。

上圖是人類行為分布,可以看到這是個正態(tài)分布,所以這就是導致了“長尾巴情況”的根本原因。即使圖像兩端的情況很少發(fā)生,我們的測試也要涵蓋進去所有的人類行為情況。

需要我們拓寬這個分布,或者仿真出更多的例子。

行為軌跡優(yōu)化模型:反RL用于找到創(chuàng)建所需軌跡的變量。

許多不同的方法來克服“長尾”問題。

“智能”模型對于自動化是至關重要的。通過模擬更真實人類行為是非常重要的。

因為還存在很多不同的場景,每天都上演著不同的事情,所以“長尾巴情況”還將會在不同的城市,不同的環(huán)境中持續(xù)下去的。

在一些好的訓練步驟如下:對收集的數據進行培訓;能夠在不確定或不正確的情況下進行量化;能夠采取措施,比如向評分者提問;更好的是,通過因果分析直接自我更新。

總結:Waymo 專家舉出的有人帶著停車標志是一個有趣例子,而且對機器學習的一個非;镜慕榻B,其中提到了AutoML模型,可以測試多達10K的不同架構。然后采用前100個架構,在更大的模型上進行測試。Waymo是一個混合系統(tǒng),使用ML和混合ML(傳統(tǒng)的ML編程)。隨著ML能力的增長,傳統(tǒng)場景越來越少。視頻中也提到了waymo 如何測試,結構化測試,是否有封閉的測試環(huán)境。在模擬器方面,他們認為代理能夠模擬現實世界中發(fā)生的事情。不斷擴大復雜模型,來處理長尾問題;蛘呃脤<翌I域知識,換句話說混合模型或傳統(tǒng)編程。以及逆強化學習,值得深入研究。


<上一頁  1  2  3  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號