訂閱
糾錯
加入自媒體

使用Python+OpenCV進行圖像處理(三)

角點檢測(Corner Detection)

角點檢測是另一種廣泛應用于目標檢測、運動檢測、視頻目標追蹤等領域的檢測算法。圖像處理中的角是什么?應該如何定義?在這里,我們把角看作是邊相交的連接點。那我們怎么才能找到他們呢? 你可能會想到一個最基礎的方式是先找到所有的邊,然后找到它們相交的點。但實際上,還有另一種更高效的方法確認角點提高效率的方法,即Harris角點檢測和Shi&Tomasi角點檢測。接下來讓我們來詳細了解這兩種算法。

這兩種算法的工作原理如下。首先,檢測出各個方向上像素強度值有很大變化的點。然后構造一個矩陣,從中提取特征值。通過這些特征值進行評分從而決定它是否是一個角。數(shù)學表達式如下所示。

現(xiàn)在讓我們看看它們的代碼實現(xiàn)。首先,需要把圖片轉換為灰度圖。Harris角點檢測可以通過OpenCV中的cv2.cornerHarris()函數(shù)實現(xiàn)。

img = cv2.imread('images/desk.jpg')

img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)

img_gray = cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)

# Apply Harris corner detection

dst = cv2.cornerHarris(img_gray, blockSize = 2, ksize = 3, k = .04)

參數(shù)blocksize是指定領域窗口設定的大小,k是Harris檢測的自由參數(shù)對應上方公式中的k值。輸出結構為得分R,我們將使用R得分檢測角點。

# Spot the detected corners

img_2 = img.copy()

img_2[dst>0.01*dst.max()]=[255,0,0]

# Plot the image

plt.figure(figsize = (20, 20))

plt.subplot(1, 2, 1); plt.imshow(img)

plt.a(chǎn)xis('off')

plt.subplot(1, 2, 2); plt.imshow(img_2)

plt.a(chǎn)xis('off')

下方是Shi-Tomasi角點檢測的代碼實現(xiàn)。使用函數(shù)cv2.goodFeaturesToTrack()實現(xiàn)。通過maxCorners參數(shù)指定最大角點個數(shù)。相應地,通過minDistance指定角點間的最小距離和角點評定的最小質量級別。得到檢測到的角點后,使用圓圈標記這些角點,如下所示:

# Apply Shi-Tomasi corner detection

corners = cv2.goodFeaturesToTrack(img_gray, maxCorners = 50,
                                 qualityLevel = 0.01,
                                 minDistance = 10)

corners = np.int0(corners)

# Spot the detected corners

img_2 = img.copy(

for i in corners:

   x,y = i.ravel()

cv2.circle(img_2, center = (x, y), 

radius = 5, color = 255, thickness = -1)

# Plot the image

plt.figure(figsize = (20, 20))

plt.subplot(1, 2, 1); plt.imshow(img)

plt.a(chǎn)xis('off')

plt.subplot(1, 2, 2); plt.imshow(img_2)

plt.a(chǎn)xis('off')

001 (9)人臉檢測

人臉檢測是一種識別圖像中是否存在人臉以及人臉的位置的技術。人臉檢測不同于人臉識別,人臉識別是通過一個人的臉來識別這個人。 所以人臉檢測并不能告訴我們這個人臉是屬于誰。

人臉檢測本質上是一項分類任務,訓練其分類物體是否存在來從而實現(xiàn)檢測;贖aar特征的級聯(lián)分類器是OpenCV中常用的人臉檢測模型之一。它已經(jīng)在數(shù)千副圖像上進行過預訓練。理解該算法的四個關鍵點分別是:Haar特征提取、積分圖像、Adaboost和級聯(lián)分類器。

類haar特征(Haar-like features)是用于目標檢測的數(shù)字圖像特征,示例如上圖。Haar特征這個名字來源于其與Harr小波的直觀相似性,且Haar小波最初是由Alfred Haar提出的。在檢測過程中,通過滑動窗口和濾波器上的卷積操作來確認這些特征是不是我們所需要的特征。如下方所示:

那么,我們具體如何來確定給定區(qū)域是否含有需要的特征呢? 如上方圖片中所示。使用一個特定卷積核(上半?yún)^(qū)域是暗的,下半?yún)^(qū)域是亮的)得到每個區(qū)域像素值的平均值,并減去兩者之間的差距。如果結果高于閾值(比如0.5),則可得出結果,其就是我們正在檢測的特征。對每個內(nèi)核重復這個過程,同時在圖像上滑動窗口。

雖然這個計算過程并不復雜,但如果在正個圖像重復這個過程計算量還是很大的。這也是積分圖像要解決的主要問題。積分圖像是一種圖像表示方式,它是為了提高特征估計的速度與效率而衍生出來的。

如下圖所示,左邊是原始圖像的像素值,右邊是積分圖像的像素值。從左上角開始計算給定矩形區(qū)域下像素的累加值。在積分圖像上,將虛線框像素值的累加和填充在右邊框的右下角處。

使用上方這個“預計算表”,我們可以通過子矩形(上圖中紅色、橙色、藍色和紫色框)的值方便地得到某個區(qū)域的像素值總和。

所以積分圖像可以幫助我們在一定程度上解決計算量過大的問題。但還不夠,還存在著計算量優(yōu)化的空間。當檢測窗口位于沒有目標或人臉的空白背景時,執(zhí)行檢測則會耗費不必要的計算量。這時就可以通過使用Adaboost和級聯(lián)分類器,從而實現(xiàn)計算量進一步優(yōu)化。

上圖展示了級聯(lián)分類器逐步構造的各個階段,并對類haar特征進行排序;咎卣鲿谠缙陔A段被識別出來,后期只識別有希望成為目標特征的復雜特征。在每一個階段,Adaboost模型都將由集成弱分類器進行訓練。如果子部件或子窗口在前一階段被分類為“不像人臉的區(qū)域”,則將被拒絕進入下一步。通過上述操作,只須考慮上一階段篩選出來的特征,從而實現(xiàn)更高的速度。

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號