訂閱
糾錯(cuò)
加入自媒體

解析C++版OpenCV里的機(jī)器學(xué)習(xí)

測(cè)試

對(duì)于測(cè)試,我們聲明了一個(gè)200個(gè)元素的矩陣來(lái)進(jìn)行測(cè)試,并且在計(jì)算了這些樣本的最近鄰居之后,我們放了一個(gè)小循環(huán)來(lái)計(jì)算兩類的分類良好的樣本和分類不良的樣本。這是測(cè)試樣本的表示:

評(píng)估

現(xiàn)在,我們必須通過(guò)查看分類良好和分類較差的樣本來(lái)評(píng)估我們的模型。為了理解我們將要做什么,我將舉一個(gè)小例子。在我們的例子中,我們有兩個(gè)類,第一個(gè)包含綠色點(diǎn),另一個(gè)包含紅色點(diǎn)。為了進(jìn)行評(píng)估,我們必須放置一類好的和一類不好的,因此,在這里我將舉一個(gè)例子:對(duì)于綠點(diǎn),我們將說(shuō)它們代表未生病的人(好的類),紅點(diǎn)代表生病的人(壞的類)。如果有病的人被歸類為有病的人(帶有紅點(diǎn)),那么在這里我們說(shuō)他是一個(gè)真陰性(正確分類為真,生病為陰性)。如果將一個(gè)有病的人歸類為沒(méi)有生病的人,那么在這里我們說(shuō)這是一個(gè)假陰性(錯(cuò)誤分類為假,生病為陰性)。如果沒(méi)有生病的人被歸類為沒(méi)有生病的人(帶有綠色),那么在這里我們說(shuō)這是一個(gè)真陽(yáng)性(對(duì)于分類良好的人來(lái)說(shuō)是真,對(duì)于沒(méi)有病的人來(lái)說(shuō)是陽(yáng)性)。如果未生病的人被歸類為生病的人,那么在這里我們說(shuō)這是假陽(yáng)性。因此,從這個(gè)原理開(kāi)始,我們對(duì)結(jié)果進(jìn)行評(píng)估,以便我們可以計(jì)算精度

TP:真陽(yáng)性TN:真陰性FP:假陽(yáng)性FN:假陰性因此,由于我們知道16個(gè)綠色的錯(cuò)誤分類點(diǎn)和9個(gè)紅色的錯(cuò)誤分類點(diǎn),并且知道每個(gè)類別的總點(diǎn)數(shù)是200,因此我們可以輕松地填充表格。

現(xiàn)在,使用這些值,我們可以計(jì)算出準(zhǔn)確度準(zhǔn)確度

召回

特異性

每個(gè)類的錯(cuò)誤第1類:

第2類:

總誤差

具有OpenCV的SVM

定義

支持向量機(jī)或大邊緣分離器是一組有監(jiān)督的學(xué)習(xí)技術(shù),旨在解決判別和回歸問(wèn)題。支持向量機(jī)是線性分類器的推廣。支持向量機(jī)可用于解決判別問(wèn)題,即確定樣本屬于哪一類,或回歸問(wèn)題,即預(yù)測(cè)變量的數(shù)值。解決這兩個(gè)問(wèn)題需要構(gòu)造一個(gè)函數(shù)h,該函數(shù)與輸入向量x匹配輸出 y: y=h(x)在我們的例子中,我們將對(duì)包含隨機(jī)點(diǎn)的兩個(gè)類進(jìn)行分類,就像我們對(duì)KNN方法所做的那樣。

方法

在這種方法中,我們將執(zhí)行與KNN中幾乎相同的操作,但是在這里我們必須做不同的部分。第一個(gè)訓(xùn)練將始終使用具有正態(tài)分布函數(shù)的兩類100個(gè)隨機(jī)元素進(jìn)行訓(xùn)練,然后我們必須生成200個(gè)元素的其他測(cè)試樣本,然后進(jìn)行預(yù)測(cè)。因?yàn)槿绻覀兪冀K使用訓(xùn)練樣本,那么我們將無(wú)法研究生成的模型的性能。因此,要進(jìn)行學(xué)習(xí),我們還必須為兩個(gè)類創(chuàng)建兩個(gè)矩陣,然后將它們連接起來(lái)并將其放入SVM模型的輸入中。(與我們之前所做的相同)。要進(jìn)行學(xué)習(xí),我們必須執(zhí)行以下行:

但是在此之前,我們必須通過(guò)執(zhí)行以下操作來(lái)初始化模型參數(shù):(我們使用了RBF核心)

如果我們很好地注意到,當(dāng)我們啟動(dòng)學(xué)習(xí)時(shí),我們添加了類的向量,因?yàn)槲覀冋f(shuō)這是監(jiān)督學(xué)習(xí),這意味著我們必須將類的名稱提供給模型。

邊界顯示

訓(xùn)練后,我們需要像在KNN中所做的那樣對(duì)數(shù)據(jù)進(jìn)行表示,這樣我們就可以看到邊界,也可以看到模型是否根據(jù)我們擁有的訓(xùn)練數(shù)據(jù)很好地選擇了邊界。

我們注意到邊界確實(shí)使這兩個(gè)類之間有所不同,有些點(diǎn)很難分類,但基本上,學(xué)習(xí)做得很好。

測(cè)試

現(xiàn)在,我們需要通過(guò)聲明其他測(cè)試樣本來(lái)測(cè)試模型,并使用預(yù)測(cè)函數(shù)直接在模型中運(yùn)行它們,以預(yù)測(cè)每個(gè)點(diǎn)屬于哪個(gè)類。為此,我們?yōu)閮蓚(gè)類聲明了另外兩個(gè)矩陣,每個(gè)矩陣包含200個(gè)測(cè)試項(xiàng)目。最后,只需通過(guò)執(zhí)行以下行來(lái)傳遞級(jí)聯(lián)矩陣(該矩陣包含兩個(gè)類的數(shù)據(jù))就可以了:

這是測(cè)試結(jié)果:

評(píng)估

因此,由于我們知道16個(gè)綠色的錯(cuò)誤分類點(diǎn)和9個(gè)紅色的錯(cuò)誤分類點(diǎn),并且知道每個(gè)類別的總點(diǎn)數(shù)是200,因此我們可以輕松地填充表格。

準(zhǔn)確度

召回率

特異性

每個(gè)類的錯(cuò)誤第1類:

第2類:

總誤差

結(jié)論

總而言之,我們可以看到,獲得的評(píng)估值非常令人滿意。因?yàn)檎`差非常小,所以精度很高,這意味著該模型學(xué)習(xí)得很好,如果我們?cè)诖伺渲孟率褂肧VM模型,那么它將在這種類型的應(yīng)用程序中很好地工作。

詞袋

介紹

在我們了解了如何將支持向量機(jī)用于一個(gè)基本案例之后,我們將嘗試在圖像上應(yīng)用支持向量機(jī)模型來(lái)進(jìn)行分類。為此,我們有一個(gè)4個(gè)類的數(shù)據(jù)庫(kù),每個(gè)類都有隔離的圖像。但這里的問(wèn)題是,一個(gè)圖像包含幾個(gè)特征,因此如果我們想使用圖像,那么它將是一個(gè)具有大量值的輸入矩陣,這將使學(xué)習(xí)過(guò)程非常緩慢,甚至無(wú)法確定它們是否是正確的特征。這就是為什么我們需要找到一種方法,幫助我們從圖像中提取必要的信息,我們將學(xué)習(xí)這些信息。因?yàn)槿绻覀儾贿@樣做,那么輸入向量將是整個(gè)圖像。所以這里的想法是從圖像中找到只包含圖像重要信息的描述符,所以這里或者我們將使用BOW(bag of words)和SURF的方法。SURF方法用于提取圖像的興趣點(diǎn),它可以是輪廓、圓……因?yàn)槿绻覀冎惶崛D像的興趣點(diǎn),那么輸入向量將很大程度上非常小,并且只包含必要的內(nèi)容,這樣學(xué)習(xí)將非?臁

創(chuàng)建字典

在進(jìn)行學(xué)習(xí)之前,我們說(shuō)過(guò)必須先找到興趣點(diǎn),然后將它們放在單個(gè)矩陣中,所以此矩陣稱為字典,然后從該字典中對(duì)興趣點(diǎn)最多的圖像進(jìn)行分類分組。為了提取點(diǎn),我們將使用可完成此工作的openCV函數(shù)。我們決定為每個(gè)類拍攝10張圖像進(jìn)行訓(xùn)練,因此即使字典也必須包含10張圖像的信息,因此這是我們用來(lái)提取興趣點(diǎn)的代碼行:

因此,這些代碼行將提取這些點(diǎn)并將其放入描述符中,最后,我們將此描述符放入保存的字典中,并在學(xué)習(xí)部分中使用它。

訓(xùn)練

提取興趣點(diǎn)并填充字典后,我們需要找到包含我們所有學(xué)習(xí)圖像之間共有興趣點(diǎn)的圖。我們將使用以下代碼行來(lái)進(jìn)行學(xué)習(xí),并使用此圖:

對(duì)于模型的參數(shù),我們使用與點(diǎn)相同的參數(shù),也使用RBF內(nèi)核。因此,在訓(xùn)練完成之后,我們必須保存模型,以便稍后在測(cè)試部分中使用它。

測(cè)試

現(xiàn)在我們必須使用openCV的預(yù)測(cè)功能來(lái)測(cè)試模型,但是在執(zhí)行此操作之前,我們必須知道對(duì)于測(cè)試來(lái)說(shuō)是一樣的,我們不會(huì)將整個(gè)圖像都放入模型的輸入中,而是相反,我們必須在此處應(yīng)用相同的SURF算法來(lái)提取該圖像的興趣點(diǎn),并獲得將要在預(yù)測(cè)輸入中獲得的此描述符。因此,對(duì)于測(cè)試,我選擇了每個(gè)類別的15張圖像,以便我們可以簡(jiǎn)單地構(gòu)建混淆矩陣。在將我解釋的方法應(yīng)用于所有測(cè)試圖像后,我得到了以下混淆矩陣:

該矩陣表示:在有關(guān)手風(fēng)琴對(duì)象的15張測(cè)試圖像中,有5張分類錯(cuò)誤的圖像和10張分類正確的圖像。對(duì)于“飛機(jī)”:分類良好的11張圖像,分類不良的4張。對(duì)于“錨”:5張圖像分類良好,10張圖像分類不良。對(duì)于“螞蟻”:8張分類良好的圖像和7張分類不良的圖像。我們注意到,對(duì)于“手風(fēng)琴”,“飛機(jī)”和“螞蟻”,該模型比“錨”模型更為敏感,因?yàn)樗雌饋?lái)很像飛機(jī),因此飛機(jī)和錨點(diǎn)的興趣點(diǎn)非常接近這意味著很難在測(cè)試級(jí)別上區(qū)分這兩個(gè)對(duì)象

評(píng)估

為了進(jìn)行評(píng)估,我們將計(jì)算每個(gè)類的誤差和全局誤差。盡管如此,我們可以注意到該模型的性能較差。

在計(jì)算了局部誤差之后,我們可以看到它并不是真正有效,這是由于以下幾個(gè)因素造成的:數(shù)據(jù)的類型非常接近,這使得4個(gè)類的關(guān)注點(diǎn)的提取變得非常接近。訓(xùn)練數(shù)據(jù),我們每班僅使用10張圖像,而有必要放置更多圖像,以便該模型在許多圖像上學(xué)習(xí)更多。而且在測(cè)試級(jí)別上,我們僅對(duì)15張圖像進(jìn)行了測(cè)試,也許如果我們?cè)黾訙y(cè)試數(shù)據(jù),則誤差會(huì)有所降低。

結(jié)論

將SVM與SURF一起使用是一種很好的方法,因?yàn)樗苊饬藢W(xué)習(xí)圖像的所有像素,并且使模型更加準(zhǔn)確,并包含了對(duì)圖像進(jìn)行分類所必需的功能。但在這種情況下,僅僅有一個(gè)好的模型是不夠的,這就給出了一個(gè)好的分類——也許描述符的選擇做得不好。這是我們?cè)跊](méi)有神經(jīng)網(wǎng)絡(luò)的情況下制定機(jī)器學(xué)習(xí)算法時(shí)將會(huì)遇到的問(wèn)題之一,這意味著我們必須自己選擇特征(我說(shuō)自己是因?yàn)槲覀儽仨毞胖猛獠克惴▉?lái)提取特征) ,但使用神經(jīng)網(wǎng)絡(luò),所有這些工作將自動(dòng)完成,并且特征的提取將在學(xué)習(xí)過(guò)程中由網(wǎng)絡(luò)完成。不幸的是,由于缺乏數(shù)據(jù),我們無(wú)法對(duì)案件進(jìn)行神經(jīng)網(wǎng)絡(luò)處理。因?yàn)槲艺J(rèn)為即使在這種情況下的神經(jīng)網(wǎng)絡(luò)也無(wú)法提供更準(zhǔn)確的結(jié)果。

<上一頁(yè)  1  2  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)