訂閱
糾錯
加入自媒體

港大研究員提出融合自適應法向量約束和遮擋注意力的深度估計新方法

下式顯示了優(yōu)化網絡的損失函數,P(q)為位置q處的遮擋概率。損失函數綜合了遮擋概率作用下的深度、法向量以及遮擋概率圖,并用權重調節(jié)各部分的重要性:

實驗結果

在模型訓練過程中,研究人員使用了ScanNet作為訓練數據,并在7Scenes和SUND3D數據集上進行了測試。訓練過程首先對DepthNet進行訓練,而后固定其權重再訓練RefineNet,最后再共同對整個模型進行調優(yōu)。

下圖顯示了這種方法與多種深度估計方法在7-Scenes數據上的比較,可以看到針對多個指標都取得了優(yōu)異的結果:

下圖顯示了模型重建的結果,可以看到深度圖中邊緣更為銳利、更好地保留了形狀的規(guī)則外形:

在得到的表面法向量上也達到了優(yōu)異性能:

在視覺質量上也超過了其他方法,CNM約束可以更好的保留局部和全局的幾何結構信息。

從最終的三維重建結果中可以看到,即便是對于像沙發(fā)、白墻這樣的弱紋理結構也能輕松重建,重建的顏色也更接近于基準、形狀更為連續(xù)噪聲也更少。

此外研究人員還分析了局域/全局法向量CNM、優(yōu)化模塊和遮擋概率圖等不同模塊的有效性:

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號