訂閱
糾錯(cuò)
加入自媒體

ECCV 2020 | 云端參會(huì)攻略之Oral篇,前排占位、強(qiáng)勢(shì)圍觀!


在三維曲面重建方面,來自澳大利亞國(guó)立的研究人員提出了一種DeepFit的方法,通過神經(jīng)網(wǎng)絡(luò)加權(quán)的最小二乘來擬合曲面。神經(jīng)網(wǎng)絡(luò)為每一個(gè)點(diǎn)提供了權(quán)重作為鄰域點(diǎn)的柔性,避免了先前方法中的尺度需求。同時(shí)提出了表面連續(xù)性損失來改進(jìn)權(quán)重估計(jì)。這種方法可以有效抽取表面法向量和曲率等幾何特征。下圖顯示了法向量和曲率的估計(jì)流程,針對(duì)每一個(gè)點(diǎn)都可以計(jì)算出全局和局部的表示,并估計(jì)出逐點(diǎn)的權(quán)重結(jié)果,隨后通過解最小二乘法方法來擬合n-jet。

在時(shí)尚領(lǐng)域,康奈爾、谷歌和Hearst Magazines提出了Fashionpedia數(shù)據(jù)集,包含了本體、分割、屬性定位等豐富的數(shù)據(jù)資源。

來自港中文、深圳大數(shù)據(jù)研究院、浙大、西安交大、騰訊和中科大的研究人員們提出了用于三維服飾時(shí)尚重建的Deep Fashion3D數(shù)據(jù)集,包含了2078個(gè)模型重建數(shù)據(jù)、覆蓋了10個(gè)不同的類別和563種實(shí)例。

針對(duì)行人的相關(guān)研究,來自伯克利、南京大學(xué)和Facebook的研究人提出了基于場(chǎng)景上下文的長(zhǎng)時(shí)行人運(yùn)動(dòng)軌跡預(yù)測(cè),在給定單圖場(chǎng)景和2D位置歷史的基礎(chǔ)上,可以預(yù)測(cè)出人體行為受到場(chǎng)景的長(zhǎng)期影響。下圖顯示了場(chǎng)景中人體行為的預(yù)測(cè)結(jié)果。

來自佐治亞理工、威斯康辛麥迪遜、德國(guó)馬普研究所和圖賓根大學(xué)的研究人員提出了預(yù)測(cè)人體與場(chǎng)景中目標(biāo)的交互過程,通過將手的意圖特征編碼到網(wǎng)絡(luò)中與輸入圖像共同預(yù)測(cè)交互的目標(biāo)。

此外針對(duì)圖像修復(fù)和圖像質(zhì)量提升方面,來自港中文、南洋理工、港大的研究人員提出了利用深度生成先驗(yàn)來對(duì)圖像進(jìn)行修復(fù)和操作,基于大規(guī)模自然圖像數(shù)據(jù)集訓(xùn)練的生成模型來捕捉圖像先驗(yàn),為各種退化過程的修復(fù)提供了良好的保障。

北京大學(xué)、微軟亞洲研究院和多倫多大學(xué)的研究人員針對(duì)縮放圖像信息丟失問題提出了一種新的視角為縮放與上采樣進(jìn)行建模,構(gòu)建了可逆的雙射過程。提出了可逆縮放網(wǎng)絡(luò)來提升低分辨圖像效果,并捕捉下采樣過程中的信息丟失,使得尺度縮放過程變得可回溯。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)