訂閱
糾錯(cuò)
加入自媒體

ECCV 2020附代碼論文合集(CNN,圖像分割)

ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標(biāo)檢測,語義分割,圖像分類,點(diǎn)云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門主題。對計(jì)算機(jī)視覺感興趣的小伙伴們也許你們已經(jīng)閱讀完論文并對論文的內(nèi)容躍躍欲試了吧!畢竟紙上得來終覺淺!這里 AMnier 整理了計(jì)算機(jī)視覺相關(guān)熱門主題下的附帶代碼的精選論文,快來尋找自己感興趣的論文并親自在自己的機(jī)器上實(shí)現(xiàn)吧!

CNN

1 WeightNet: Revisiting the Design Space of Weight Networks

作者:Ningning Ma,Xiangyu Zhang,Jiawei Huang,Jian Sun

機(jī)構(gòu):香港科技大學(xué),MEGVI研究

簡介:本文提出了一個(gè)概念上簡單、靈活和有效的權(quán)值生成網(wǎng)絡(luò)框架。文中的方法是通用的,它將當(dāng)前兩個(gè)不同且非常有效的SENet和CondConv統(tǒng)一到一個(gè)權(quán)重空間的框架中。這個(gè)稱為WeightNet的方法通過簡單地在注意力激活層上添加一個(gè)分組的完全連接層來推廣這兩個(gè)方法。作者使用完全由(分組)完全連接層組成的WeightNet直接輸出卷積權(quán)重。WeightNet在內(nèi)核空間而不是特征空間上訓(xùn)練起來很容易,而且節(jié)省內(nèi)存。由于靈活性,他們的方法在ImageNet和COCO檢測任務(wù)上都優(yōu)于現(xiàn)有的方法,實(shí)現(xiàn)了更好的精度浮點(diǎn)和精度參數(shù)權(quán)衡。該框架在柔性權(quán)重空間上具有進(jìn)一步提高性能的潛力。

2 Feature Pyramid Transformer

作者:Dong Zhang,Hanwang Zhang,Jinhui Tang,Meng Wang,Xiansheng Hua,Qianru Sun

機(jī)構(gòu):南京科技大學(xué),南洋理工大學(xué)

簡介:跨空間和尺度的特征交互是現(xiàn)代視覺識別系統(tǒng)的基礎(chǔ),因?yàn)樗鼈円肓擞幸娴囊曈X環(huán)境。傳統(tǒng)上,空間上下文被被動(dòng)地隱藏在CNN不斷增加的接受域中,或者被非局部卷積主動(dòng)編碼。然而,非局部空間相互作用并不是跨尺度的,因此它們無法捕捉到不同尺度上物體(或部件)的非局部上下文。為此,作者提出了一種跨空間和尺度的全主動(dòng)特征交互,稱為特征金字塔變換器(FPT)。它通過使用三個(gè)特殊設(shè)計(jì)的自層、自上而下和自下而上的交互方式,將任何一個(gè)特征金字塔轉(zhuǎn)換成另一個(gè)大小相同但上下文更豐富的特征金字塔。FPT作為一種通用的可視化主干,具有合理的計(jì)算開銷。在實(shí)例級(即對象檢測和實(shí)例分割)和像素級分割任務(wù)中進(jìn)行了大量的實(shí)驗(yàn),使用各種主干網(wǎng)和頭部網(wǎng)絡(luò),觀察到在所有基線和最新方法上的一致性改進(jìn)。

3 Dynamic Group Convolution for Accelerating Convolutional Neural Networks

作者:Zhuo Su,Linpu Fang,Wenxiong Kang,Dewen Hu,Matti Pietik inen,Li Liu

機(jī)構(gòu):奧盧大學(xué),華南理工大學(xué)

簡介:用群卷積代替常規(guī)卷積可以顯著提高現(xiàn)代深卷積網(wǎng)絡(luò)的計(jì)算效率,在緊湊型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)中得到了廣泛的應(yīng)用。然而,現(xiàn)有的群卷積會(huì)永久性地切斷某些連接,從而破壞原有的網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致顯著的精度下降。在這篇論文中,作者提出動(dòng)態(tài)群組卷積(DGC),它可以在每個(gè)群組內(nèi),針對個(gè)別樣本,自適應(yīng)地選取輸入通道的哪一部分連接。具體來說,為每組配備一個(gè)小的特征選擇器,以根據(jù)輸入圖像自動(dòng)選擇最重要的輸入通道。多個(gè)組可以自適應(yīng)地為每個(gè)輸入圖像捕獲豐富且互補(bǔ)的視覺/語義特征。DGC保留了原有的網(wǎng)絡(luò)結(jié)構(gòu),同時(shí)具有與傳統(tǒng)群卷積相似的計(jì)算效率。在CIFAR-10、CIFAR-100和ImageNet等多個(gè)圖像分類基準(zhǔn)上進(jìn)行了大量的實(shí)驗(yàn),結(jié)果表明該算法優(yōu)于現(xiàn)有的群卷積技術(shù)和動(dòng)態(tài)執(zhí)行方法。

4 Learning to Learn Parameterized Classification Networks for Scalable Input Images

作者:Duo Li,Anbang Yao,Qifeng Chen

機(jī)構(gòu):香港科技大學(xué),Intel實(shí)驗(yàn)室

簡介:卷積神經(jīng)網(wǎng)絡(luò)對輸入分辨率的變化不具有可預(yù)測的識別行為。這就阻止了在特定模型的不同輸入圖像分辨率上進(jìn)行部署的可行性。為了在運(yùn)行時(shí)實(shí)現(xiàn)高效、靈活的圖像分類,作者使用元學(xué)習(xí)器為不同的輸入尺度生成主網(wǎng)絡(luò)的卷積權(quán)值,并在每個(gè)尺度上維護(hù)私有化的批量規(guī)范化層。為了提高訓(xùn)練性能,他們進(jìn)一步利用基于不同輸入分辨率的飛越模型預(yù)測的知識蒸餾。與單獨(dú)訓(xùn)練的模型相比,學(xué)習(xí)后的元網(wǎng)絡(luò)能夠動(dòng)態(tài)地參數(shù)化主網(wǎng)絡(luò)以作用于任意大小的輸入圖像,具有一致的更好的精度。在ImageNet上的大量實(shí)驗(yàn)表明,在自適應(yīng)推理過程中,本文的方法實(shí)現(xiàn)了更高的精度和效率的折衷。通過切換可執(zhí)行輸入分辨率,該方法可以滿足不同資源受限環(huán)境下的快速自適應(yīng)要求。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號