2020年2月14日,這個(gè)本該充滿愛意的日子,因?yàn)檫@場(chǎng)已持續(xù)了一個(gè)多月的疫情,顯得有些失寵。在全民抗疫的目標(biāo)下,安全和健康成為大家的共同愿望。而AI在這個(gè)時(shí)期,更凸顯出優(yōu)勢(shì),為這場(chǎng)沒有硝煙的戰(zhàn)役頻頻助攻" />
訂閱
糾錯(cuò)
加入自媒體

除了愛,AI也能給你安全感

2020年2月14日,這個(gè)本該充滿愛意的日子,因?yàn)檫@場(chǎng)已持續(xù)了一個(gè)多月的疫情,顯得有些失寵。在全民抗疫的目標(biāo)下,安全和健康成為大家的共同愿望。而AI在這個(gè)時(shí)期,更凸顯出優(yōu)勢(shì),為這場(chǎng)沒有硝煙的戰(zhàn)役頻頻助攻。

從病毒基因檢測(cè)開放平臺(tái),到AI熱感視覺行為監(jiān)控系統(tǒng),到智能消毒洗地機(jī)器人,深蘭多維度防疫產(chǎn)品深入前線,為著大家的安全,為了最后的勝利全力以赴。

提到安全保障,計(jì)算機(jī)視覺作為人工智能的核心技術(shù)起到了至關(guān)重要的作用,除了特殊時(shí)期,在很多日常場(chǎng)景中也舉足輕重。比如,對(duì)建筑工地上安全帽佩戴情況的監(jiān)管。安全帽佩戴檢測(cè)對(duì)于提高在崗人員的安全意識(shí)、降低管理難度以及保障安全生產(chǎn)有著重要的意義。

2020年伊始,深蘭科技就在AI研習(xí)社主辦的安全帽佩戴檢測(cè)賽中小試牛刀,獲得了冠軍。作為國(guó)內(nèi)專注于AI技術(shù)發(fā)展的知名平臺(tái),AI研習(xí)社主辦的此次比賽也是吸引了眾多專業(yè)機(jī)構(gòu)和人士的參與。下文將帶來競(jìng)賽中技術(shù)細(xì)節(jié)的分享。

安全帽佩戴檢測(cè)

賽題介紹:

比賽主辦方提供了6057張圖片作為訓(xùn)練集,1514張圖片作為測(cè)試數(shù)據(jù)。圖片包括工地照片、某大學(xué)監(jiān)控視頻圖片、普通場(chǎng)景圖片。主辦方對(duì)訓(xùn)練集圖片中人員進(jìn)行標(biāo)注,佩戴安全帽的人員標(biāo)注為"hat",未佩戴安全帽的人員標(biāo)注為"person"。比賽選手需要能夠正確給出測(cè)試圖片中佩戴安全帽人員及未佩戴安全帽人員的數(shù)量。

評(píng)測(cè)指標(biāo):

對(duì)測(cè)試數(shù)據(jù)集的測(cè)試結(jié)果以csv格式進(jìn)行提交,csv第一列字段為測(cè)試圖片的ID,第二列字段為圖片中佩戴安全帽人員數(shù)量,第三列字段為圖片中沒有佩戴安全帽人員數(shù)量。根據(jù)提交結(jié)果的Score進(jìn)行排名。

其中True表示同時(shí)正確預(yù)測(cè)佩戴安全帽與沒有佩戴安全帽人員數(shù)量的圖片張數(shù)(因此該賽題如果想取得較好的成績(jī),就必須同時(shí)解決誤檢與漏檢問題),Total表示測(cè)試圖片的總數(shù)。

題目特點(diǎn)以及常用方法

安全帽佩戴檢測(cè)屬于目標(biāo)檢測(cè)問題,針對(duì)目標(biāo)檢測(cè)問題現(xiàn)在的算法比較多,如以Faster RCNN為代表的二階段檢測(cè)網(wǎng)絡(luò),及以YOLO v3為代表的單階段檢測(cè)網(wǎng)絡(luò)。同時(shí)由于本次比賽訓(xùn)練數(shù)據(jù)集都是針對(duì)人的頭部為標(biāo)注框進(jìn)行數(shù)據(jù)標(biāo)注(佩戴安全帽人員將人臉與安全帽共同標(biāo)注為“hat”,沒有佩戴安全帽的人員將頭部標(biāo)注為“person”),因此也可以考慮先使用人臉檢測(cè)算法對(duì)人臉進(jìn)行識(shí)別,然后將識(shí)別結(jié)果送入分類網(wǎng)絡(luò),對(duì)佩戴安全帽的情況進(jìn)行分類。

由于本次比賽要求盡可能提高檢測(cè)的準(zhǔn)確率,對(duì)檢測(cè)速度沒有要求,因此針對(duì)本次比賽,采用了二階段的檢測(cè)網(wǎng)絡(luò)。

比賽數(shù)據(jù)與數(shù)據(jù)分析

本次比賽的訓(xùn)練數(shù)據(jù)集共6057張圖片,首先通過對(duì)比賽數(shù)據(jù)的分析,我們發(fā)現(xiàn)數(shù)據(jù)有以下特點(diǎn):

類別間數(shù)據(jù)分布不平衡:訓(xùn)練數(shù)據(jù)集中hat的數(shù)量為7502,person的數(shù)量為87043,person與hat的比例達(dá)11:1。檢測(cè)框的長(zhǎng)寬比基本分布在0.7-1.2之間。訓(xùn)練數(shù)據(jù)集中單張圖片目標(biāo)總個(gè)數(shù)(person與hat的數(shù)量之和)不大于10的圖片,占訓(xùn)練集總量約64%,因此想要取得較好的成績(jī),必須保證這部分?jǐn)?shù)據(jù)檢測(cè)的準(zhǔn)確率。此外圖片中只包含person的圖片數(shù)量為3449,占圖片總數(shù)量的57%,只包含hat的圖片數(shù)量為2253,占圖片總數(shù)的37.2%,圖片中僅含一個(gè)類別(只有person或只有hat)的數(shù)量占圖片總數(shù)的94.2%。

測(cè)試數(shù)據(jù)集無標(biāo)注信息,根據(jù)對(duì)測(cè)試圖片數(shù)據(jù)的觀察分析,測(cè)試數(shù)據(jù)集person與hat的分布與訓(xùn)練數(shù)據(jù)集相似。

訓(xùn)練數(shù)據(jù)集的標(biāo)注如下圖所示,其中綠色矩形框是對(duì)佩戴安全帽人員的標(biāo)注,紅色矩形框是對(duì)沒有佩戴安全帽人員的標(biāo)注。

實(shí)驗(yàn)中使用的數(shù)據(jù)增強(qiáng)方法

通過對(duì)實(shí)驗(yàn)圖片的分析,發(fā)現(xiàn)圖片中包含很多密集的教室場(chǎng)景及人員之間的遮擋情況,因此在正式訓(xùn)練模型之前,進(jìn)行數(shù)據(jù)增強(qiáng)對(duì)結(jié)果的影響實(shí)驗(yàn)。所使用的數(shù)據(jù)增強(qiáng)方法如下:

(1)隨機(jī)換通道:該方法主要是為了解決部分顏色安全帽在訓(xùn)練數(shù)據(jù)集中數(shù)量較少,從而引起對(duì)該顏色安全帽的漏檢問題。對(duì)圖片進(jìn)行隨機(jī)換通道的增強(qiáng)方法如下圖所示,其中左側(cè)為原圖,右側(cè)為隨機(jī)換通道后的結(jié)果。

(2)增強(qiáng)圖片亮度:該數(shù)據(jù)增強(qiáng)方法目的是增強(qiáng)模型對(duì)亮度較高或者較低的圖片檢測(cè)的泛化能力。對(duì)圖片亮度進(jìn)行改變的數(shù)據(jù)增強(qiáng)方法結(jié)果如下圖所示,左側(cè)為原始圖片,右側(cè)是亮度增強(qiáng)后的結(jié)果。

(3)增強(qiáng)圖片的對(duì)比度:該數(shù)據(jù)增強(qiáng)方法的目的使目標(biāo)的特征更加清晰。增強(qiáng)圖片對(duì)比度的結(jié)果如下圖所示,其中左側(cè)為原圖,右側(cè)是增強(qiáng)對(duì)比度之后的結(jié)果。

(4)改變圖片的色調(diào):對(duì)圖片色調(diào)的改變?nèi)缦聢D所示,左側(cè)為原圖,右側(cè)為色調(diào)改變后的結(jié)果。

使用以ResNet-50為backbone的Faster RCNN作為baseline,分別使用以上數(shù)據(jù)增強(qiáng)方法,實(shí)驗(yàn)結(jié)果如下表所示。

實(shí)驗(yàn)?zāi)P?/strong>

我們的實(shí)驗(yàn)是以ResNet-50作為backbone的Faster RCNN模型為baseline進(jìn)行的,在Faster RCNN網(wǎng)絡(luò)模型的基礎(chǔ)上,使用了更大的基座網(wǎng)絡(luò)、增加可變性卷積,并使用cbnet結(jié)構(gòu)。Faster RCNN網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。

同時(shí)為了提升模型效果,我們嘗試了增加級(jí)聯(lián)結(jié)構(gòu)與使用更大的backbone等方法,同時(shí)使用了CBNet網(wǎng)絡(luò)結(jié)構(gòu),如下圖所示。下圖是一個(gè)三個(gè)backbone的網(wǎng)絡(luò)結(jié)構(gòu)示意圖,考慮到顯存與訓(xùn)練時(shí)間成本,本次比賽,我們采用的是雙backbone的CBNet結(jié)構(gòu)。

結(jié)果如下表所示(以下結(jié)果都是在mmdet預(yù)訓(xùn)練模型的基礎(chǔ)上finetune,并且在模型訓(xùn)練的過程中都使用了隨機(jī)換通道的數(shù)據(jù)增強(qiáng)方法):

模型融合

模型融合是算法大賽中常用的提高模型精度方法,有些比賽在競(jìng)爭(zhēng)激烈的后期用了幾十甚至上百模型。我們最終選擇了單模型得分較高的Cascade RCNN+ResNeXt-101+DCN+CBNet結(jié)構(gòu),并在該結(jié)果做為預(yù)訓(xùn)練模型的基礎(chǔ)上,又使用增強(qiáng)圖片亮度的方法,繼續(xù)訓(xùn)練出一個(gè)模型,我們記為Cascade RCNN+ResNeXt-101+DCN+CBNet+gamma。在對(duì)這兩個(gè)模型結(jié)果可視化時(shí),發(fā)現(xiàn)在教室場(chǎng)景上存在部分漏檢情況,因此,針對(duì)數(shù)據(jù)集中的教室圖片重新訓(xùn)練出一個(gè)模型,記為classroom_only。對(duì)以上三個(gè)模型進(jìn)行模型融合,最終得到64.7952的得分,拿下安全帽佩戴檢測(cè)賽的冠軍。

模型效果

(1)常見場(chǎng)景模型效果

(2)密集小目標(biāo)、目標(biāo)重疊場(chǎng)景模型效果

(3)面部遮擋場(chǎng)景模型效果

(4)光線較差場(chǎng)景模型效果

應(yīng)用場(chǎng)景

按照規(guī)定,正確佩戴安全帽對(duì)于安全生產(chǎn)有著重要的意義,但是傳統(tǒng)的安全帽佩戴檢查需要耗費(fèi)極大的人力與物力,在實(shí)際檢查過程中存在諸多不便。使用深度學(xué)習(xí)網(wǎng)絡(luò)模型檢測(cè)安全帽的佩戴情況,可以彌補(bǔ)傳統(tǒng)方法的不足。具體的應(yīng)用場(chǎng)景包括:

(1)門禁系統(tǒng):在高危區(qū)域部署安全帽佩戴檢測(cè)與門禁聯(lián)動(dòng)系統(tǒng),確保工作人員必須佩戴安全帽才能打開門禁進(jìn)入防護(hù)區(qū)工作;該應(yīng)用可以應(yīng)用在工地入口、一線生產(chǎn)車間門口等處,門禁系統(tǒng)識(shí)別工作人員的身份,安全帽佩戴檢測(cè)系統(tǒng)在身份確認(rèn)之后進(jìn)行檢測(cè)識(shí)別,確保正確佩戴安全帽的相關(guān)工作人員才可以進(jìn)入高危作業(yè)區(qū)。

(2)高危工作區(qū)域安全生產(chǎn):在高危工作區(qū)域內(nèi)部署安全帽佩戴檢測(cè)系統(tǒng),通過監(jiān)控畫面實(shí)時(shí)監(jiān)測(cè)在崗人員安全帽佩戴情況,若未按規(guī)定佩戴安全帽,則輸出報(bào)警信息,自動(dòng)保存工作人員未按規(guī)定佩戴安全帽的截圖作為憑證,并通知后臺(tái)監(jiān)控人員。該應(yīng)用可以通過視頻監(jiān)控系統(tǒng),實(shí)時(shí)監(jiān)測(cè)高危工作區(qū)域工作人員的安全帽佩戴情況,既能確保安全生產(chǎn)的平穩(wěn)進(jìn)行,又可以降低監(jiān)管難度和管理成本。

(3)智慧工地:將安全帽檢測(cè)系統(tǒng)與高空墜落物檢測(cè)、工作人員疲勞程度檢測(cè)系統(tǒng)結(jié)合起來,打造智慧工地,及時(shí)對(duì)潛在的危險(xiǎn)進(jìn)行預(yù)警,通知相關(guān)人員采取措施,從而及時(shí)阻斷人身傷害事故,確保安全生產(chǎn)。

總結(jié)

安全生產(chǎn)是社會(huì)發(fā)展永恒的主題,然而傳統(tǒng)的安全生產(chǎn)監(jiān)督方法存在監(jiān)控盲區(qū)大、監(jiān)督效率低、外包人員管理困難等缺點(diǎn)。而深度學(xué)習(xí)的發(fā)展,為安全生產(chǎn)帶來新的解決思路。

安全帽佩戴檢測(cè)作為安全生產(chǎn)的一項(xiàng)重要檢測(cè)項(xiàng)目,是搭建智慧廠區(qū)、智慧工地的一項(xiàng)重要工作,同時(shí)安全帽佩戴檢測(cè)問題又是一項(xiàng)目標(biāo)檢測(cè)任務(wù),網(wǎng)絡(luò)模型可擴(kuò)展性強(qiáng),可以根據(jù)不同需求,同時(shí)完成明火檢測(cè)、工作區(qū)誤入報(bào)警、工作區(qū)車輛識(shí)別等多項(xiàng)任務(wù),搭建一套完整的智能檢測(cè)系統(tǒng)。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)