• <kbd id="b10fs"><dfn id="b10fs"><tbody id="b10fs"></tbody></dfn></kbd>
  • 訂閱
    糾錯
    加入自媒體

    如何使用OpenCV+Keras+Tensorflow實現去噪算法與自定義預處理函數

    理解問題在處理計算機視覺問題時,我們經常遇到需要對整個數據集應用某種形式的轉換的情況。Keras中的ImageDataGenerator類提供了各種轉換,如翻轉、規(guī)格化等。然而,應用在Keras中不可用的自定義轉換變得非常困難。

    在我們的特定示例中,我們將對我們的數據集應用去噪算法作為預處理轉換。一種簡單的方法是對數據集中的所有圖像應用去噪函數,并將處理后的圖像保存在另一個目錄中。然而,這同時消耗了我們的時間和空間。另一種方法是使用preprocessing_function屬性動態(tài)地執(zhí)行這個轉換。

    為了加載用于訓練的圖像,我使用了Keras中實現的.flow_from_directory()方法。使用OpenCV去噪是相當簡單的,OpenCV提供了幾個內置算法來實現這一點。

    在本文中,我將展示如何定義我們自己的預處理函數,將其傳遞給訓練生成器,并將圖像直接提供給模型,從而無需保存它們。本教程大致分為兩部分實現去噪算法擴展預處理函數讓我們馬上開始吧!第一部分 實現去噪算法讓我們準備一個函數,將圖像作為輸入,應用內置的去噪算法,并返回處理后的圖像。import cv2
    import numpy as np
    def preprocessing_fun(filename):
       img = cv2.imread(filename)
       dst = cv2.fastN1MeansDenoisingColored(img, None, 10, 10, 7, 21)
       return dst

    我們使用OpenCV的fastN1MeansDenoisingColored算法,因為該算法適用于彩色圖像。OpenCV還提供了使用單通道處理圖像的其他算法。fastN1MeansDenoisingColored:https://docs.opencv.org/master/d1/d79/group__photo__denoise.html#ga03aa4189fc3e31dafd638d90de335617現在我們已經實現了我們的算法,讓我們在ImageDataGenerator類中使用它。第2部分 擴展預處理函數這里,我們使用訓練生成器中前一節(jié)定義的函數。img_datagen = ImageDataGenerator(rescale=1./255,
                              preprocessing_function = preprocessing_fun)
    training_gen = img_datagen.flow_from_directory(PATH, target_size=(224,224),
                             color_mode='rgb',batch_size=32, shuffle=True)

    在定義ImageDataGenerator對象的前兩行中,你可以注意到我們已經將去噪函數傳遞給了preprocessing_function參數。通過這樣做,我們將指示我們的數據生成器在將圖像提供給模型之前,將這個函數應用到每個圖像上作為預處理步驟。這樣,我們就不需要處理所有圖像并將它們寫入一個單獨的目錄。專業(yè)提示:如果你需要執(zhí)行一系列在不同函數中定義的轉換,你可以在你的訓練生成器中以以下方式使用它。def transform1(img):
       #Applies a transformation such as horizontal flip and returns the image
       return cv2.flip(img, 1)
    def transform2(img):
       #Applies a transformation such as vertical flip and returns the image
       return cv2.flip(img, 0)
    def transform3(img):
       #Applies 180-degree rotation and returns the image
       return cv2.rotate(img, cv2.ROTATE_180)
    def our_preprocessing_function(filename):
       #Combines all the transformations
       img = cv2.imread(filename)
       img1 = transform1(img)
       img2 = transform2(img1)
       final_img = transform3(img2)
       return final_img
    img_datagen = ImageDataGenerator(rescale=1./255,
    preprocessing_function = our_preprocessing_function)
    training_generator = img_datagen.flow_from_directory(PATH,
    target_size=(224,224), color_mode='rgb', batch_size=32,
    class_mode='categorical', shuffle=True)
    通過這種方式,我們可以提供一系列自定義轉換,將它們包裝在一個函數中,并將它們應用到我們的數據集。此方法簡單但功能強大,在資源受限的環(huán)境中工作很方便。

    圖片標題

    聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

    發(fā)表評論

    0條評論,0人參與

    請輸入評論內容...

    請輸入評論/評論長度6~500個字

    您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

    暫無評論

    暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號