訂閱
糾錯
加入自媒體

ICRA2019旗艦會議來襲 | 通過視覺信號預(yù)測駕駛員意圖


比較FC-LSTM、ConvLSTM、cn-clstm以及文章提出的方法,上述指標如表1所示。FC-LSTM性能最弱;這可以解釋為全連通層在提取空間特征時效率低下,只有通過網(wǎng)絡(luò)的大容量來平衡,這使得它可以學(xué)習(xí)更復(fù)雜的功能。ConvLSTM通過利用門的卷積實現(xiàn)了稍好一點的效果,這使得它更適合于空間特征提取。然而,它的內(nèi)存效率低下阻止了使用更深層次的架構(gòu),因此限制了模型的容量。結(jié)合這兩種方法,得到了一個CNNLSTM,它既能利用CNNs豐富的空間特征提取,又能利用LSTMs的時間特征表示,取得了比之前基線更好的效果。我們提出的方法在LSTM和注意機制中進一步增加了卷積,得到了最好的結(jié)果。

混淆矩陣如表2所示。注意,OFF的檢測精度明顯較高,而FLASHERS的檢測精度較低,因為這兩個類在數(shù)據(jù)集中分別表示過多和過少,即使使用分層抽樣方案,圖4d(a)這種不平衡自然會影響測試性能。

網(wǎng)絡(luò)故障模式。(a)夜間明亮的燈光被錯誤地歸類為左轉(zhuǎn)。(b)遠處車輛右側(cè)的明亮反光被誤列為右轉(zhuǎn)彎。(c)一輛不常見的車輛識別結(jié)果為沒有發(fā)出右轉(zhuǎn)信號。(d)姿態(tài)解碼錯誤,輸出翻轉(zhuǎn)。(e)在載有單車的車輛上作假性左轉(zhuǎn)。

結(jié)論

在自動駕駛領(lǐng)域,檢測駕駛員的意圖是一項必不可少的任務(wù),是預(yù)測諸如變道和停車等突發(fā)事件的必要手段。在本文中,研究人員解決了轉(zhuǎn)彎信號分類這一重要而尚未探索的問題。提出了一種能夠端到端的訓(xùn)練方法,能夠處理車輛的不同視點。提出的神經(jīng)網(wǎng)絡(luò)通過意圖、卷積和遞歸來推斷空間和時間特征,從而在幀級對一系列觀測信號的轉(zhuǎn)彎信號狀態(tài)進行分類。該實驗使用包含120多萬張實況圖像的數(shù)據(jù)集來訓(xùn)練和評估的方法。未來在這個問題上,研究領(lǐng)域?qū)䲠U展到緊急車輛信號,以及更多分類的功能(例如來自曝光不足的相機的圖像)的識別問題上。

參考:

[1] Frossard D, Kee E, Urtasun R.DeepSignals: Predicting Intent of Drivers Through Visual Signals[J]. arXivpreprint arXiv:1905.01333, 2019.

[2] icra2019.org

<上一頁  1  2  3  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號