訂閱
糾錯(cuò)
加入自媒體

谷歌提出Context R-CNN, 利用時(shí)域上下文信息的增強(qiáng)目標(biāo)檢測(cè)系統(tǒng)

生態(tài)問(wèn)題刻不容緩的今天,有效的生態(tài)系統(tǒng)監(jiān)測(cè)能夠幫助研究人員更好地提出環(huán)境保護(hù)措施。靜態(tài)捕捉相機(jī)就是放置在野外環(huán)境中的最具代表性的一種監(jiān)測(cè)傳感器。然而,對(duì)于廣泛應(yīng)用的靜態(tài)相機(jī)來(lái)說(shuō),自動(dòng)地分析處理還面臨著一系列的挑戰(zhàn)。

由于靜態(tài)相機(jī)的拍攝場(chǎng)景固定,拍攝圖像中的背景異常重復(fù),因此沒(méi)有足夠充分的數(shù)據(jù)多樣性,機(jī)器學(xué)習(xí)模型將傾向于學(xué)習(xí)背景,使其在新場(chǎng)景下缺乏足夠的泛化性。為了解決這一問(wèn)題,來(lái)自谷歌的研究人員提出了一種基于時(shí)域上下文的互補(bǔ)方法Context R-CNN,提升了目標(biāo)檢測(cè)模型在全新相機(jī)設(shè)置場(chǎng)景下的泛化性。

有效的生態(tài)系統(tǒng)監(jiān)測(cè)將幫助研究人員更好的理解全球生態(tài)系統(tǒng)的動(dòng)力學(xué)行為、物種多樣性、量化人類(lèi)活動(dòng)和氣候變化的影響,并提出有效的保護(hù)措施。為了獲取高質(zhì)量的數(shù)據(jù)提高監(jiān)測(cè)效率,生態(tài)學(xué)家耗費(fèi)了大量的努力在野外環(huán)境中放置檢測(cè)傳感器,而靜態(tài)捕捉相機(jī)就是其中最具代表性的一種。

隨著傳感器監(jiān)測(cè)網(wǎng)絡(luò)的逐漸發(fā)展壯大,對(duì)于全球范圍內(nèi)生物多樣性數(shù)據(jù)的手工分析變成了全球?qū)崟r(shí)生態(tài)精確監(jiān)測(cè)的瓶頸所在。雖然有多種基于機(jī)器學(xué)習(xí)的自動(dòng)化分析方法,但對(duì)于廣泛應(yīng)用的靜態(tài)相機(jī)來(lái)說(shuō),自動(dòng)地分析處理還面臨著一系列的挑戰(zhàn),包括功耗和存儲(chǔ)限制、采樣率較低、運(yùn)動(dòng)觸發(fā)造成的非規(guī)則拍攝結(jié)果等。

為了有效處理野外靜態(tài)相機(jī)的拍攝結(jié)果,計(jì)算機(jī)視覺(jué)模型必須對(duì)各種情形下的目標(biāo)具有足夠的魯棒性,包括偏離中心、離焦、低光照、尺度變化劇烈等等。此外靜態(tài)相機(jī)最大的不同在于它的拍攝場(chǎng)景固定,這會(huì)使拍攝圖像中的背景異常重復(fù)。沒(méi)有足夠充分的數(shù)據(jù)多樣性,機(jī)器學(xué)習(xí)模型將傾向于學(xué)習(xí)背景,使其在新場(chǎng)景下缺乏足夠的泛化性。

機(jī)器學(xué)習(xí)和生態(tài)學(xué)界的研究人員已經(jīng)攜手完成了像LILA BC 和 Wildlife Insights 等大規(guī)模的專(zhuān)家標(biāo)注數(shù)據(jù)集,這些數(shù)據(jù)來(lái)自于多個(gè)研究團(tuán)隊(duì)在不同場(chǎng)景下的相機(jī)拍攝結(jié)果以提升數(shù)據(jù)的多樣性。但數(shù)據(jù)的積攢需要大量人力物力并且進(jìn)展緩慢,同時(shí)在顧及多樣性、世界范圍內(nèi)代表性數(shù)據(jù)和物種分類(lèi)的要求下變得異常繁雜。

這張清晨濃霧中的野外圖像幾乎什么都看不清,為自動(dòng)分析帶來(lái)了十分巨大的挑戰(zhàn)。

為了解決這一問(wèn)題,來(lái)自谷歌的研究人員提出了一種基于時(shí)域上下文的互補(bǔ)方法Context R-CNN,提升了目標(biāo)檢測(cè)模型在全新相機(jī)設(shè)置場(chǎng)景下的泛化性。新型的目標(biāo)檢測(cè)架構(gòu)通過(guò)提取每個(gè)相機(jī)在時(shí)間維度上的上下文線(xiàn)索來(lái)改善新場(chǎng)景下的目標(biāo)識(shí)別效果,而無(wú)需額外的來(lái)自多個(gè)相機(jī)的訓(xùn)練數(shù)據(jù)。在面對(duì)復(fù)雜圖像時(shí),上下文R-CNN方法可以從同一相機(jī)從長(zhǎng)達(dá)一個(gè)月的上下文信息中回溯出最為相關(guān)的目標(biāo)并幫助算法進(jìn)行識(shí)別。

1  2  3  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀(guān)點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)