訂閱
糾錯(cuò)
加入自媒體

使用Tensorflow+OpenCV構(gòu)建會(huì)玩石頭剪刀布的AI

我使用了Python的OpenCV庫進(jìn)行所有與相機(jī)相關(guān)的操作,所以這里的label指的是圖像屬于哪個(gè)類,根據(jù)標(biāo)簽,圖像保存在適當(dāng)?shù)哪夸浿。ct和maxCt是用來保存圖像的起始索引和最終索引,剩下的是標(biāo)準(zhǔn)的OpenCV代碼,用于獲取網(wǎng)絡(luò)攝像頭源并將圖像保存到目錄中。需要注意的一點(diǎn)是,我所有的圖片維數(shù)都是300 x 300的。運(yùn)行此目錄樹后,我的目錄樹如下所示。

C:.

├───paper

│ paper0.jpg

│ paper1.jpg

│ paper2.jpg

├───rock

│ rock0.jpg

│ rock1.jpg

│ rock2.jpg

└───scissor

scissor0.jpg

scissor1.jpg

scissor2.jpg

如果你引用的是Github存儲(chǔ)庫(https://github.com/HOD101s/RockPaperScissor-AI-) ,則getData.py會(huì)為你完成這項(xiàng)工作!預(yù)處理我們的數(shù)據(jù)我們需要使用圖像,而計(jì)算機(jī)可以識(shí)別數(shù)字,因此,我們將所有圖像轉(zhuǎn)換為它們各自的矢量表示,另外,我們的標(biāo)簽尚待生成,由于已建立的標(biāo)簽不能是文本,因此我使用shape_to_label字典為每個(gè)類手動(dòng)構(gòu)建了“獨(dú)熱編碼”表示。

DATA_PATH = sys.a(chǎn)rgv[1] # Path to folder containing data

shape_to_label = {'rock':np.a(chǎn)rray([1.,0.,0.,0.]),'paper':np.a(chǎn)rray([0.,1.,0.,0.]),'scissor':np.a(chǎn)rray([0.,0.,1.,0.]),'ok':np.a(chǎn)rray([0.,0.,0.,1.])}

arr_to_shape = {np.a(chǎn)rgmax(shape_to_label[x]):x for x in shape_to_label.keys()}

imgData = list()

labels = list()

for dr in os.listdir(DATA_PATH):

if dr not in ['rock','paper','scissor']:

continue

print(dr)

lb = shape_to_label[dr]

i = 0

for pic in os.listdir(os.path.join(DATA_PATH,dr)):

path = os.path.join(DATA_PATH,dr+'/'+pic)

img = cv2.imread(path)

imgData.a(chǎn)ppend([img,lb])

imgData.a(chǎn)ppend([cv2.flip(img, 1),lb]) #horizontally flipped image

imgData.a(chǎn)ppend([cv2.resize(img[50:250,50:250],(300,300)),lb]) # zoom : crop in and resize

i+=3

print(i)

np.random.shuffle(imgData)

imgData,labels = zip(*imgData)

imgData = np.a(chǎn)rray(imgData)

labels = np.a(chǎn)rray(labels)

當(dāng)我們根據(jù)類將圖像保存在目錄中時(shí),目錄名用作標(biāo)簽,該標(biāo)簽使用shape_to_label字典轉(zhuǎn)換為獨(dú)熱表示。在我們遍歷系統(tǒng)中的文件以訪問圖像之后,cv2.imread()函數(shù)返回圖像的矢量表示。我們通過翻轉(zhuǎn)圖像并放大圖像來進(jìn)行一些手動(dòng)的數(shù)據(jù)增強(qiáng),這增加了我們的數(shù)據(jù)集大小,而無需拍攝新照片,數(shù)據(jù)增強(qiáng)是生成數(shù)據(jù)集的關(guān)鍵部分。最后,圖像和標(biāo)簽存儲(chǔ)在單獨(dú)的numpy數(shù)組中。cv2.imread()函數(shù)https://www.geeksforgeeks.org/python-opencv-cv2-imread-method/更多關(guān)于數(shù)據(jù)增強(qiáng)的信息。https://towardsdatascience.com/data-augmentation-for-deep-learning-4fe21d1a4eb9通過遷移學(xué)習(xí)建立我們的模型:在處理圖像數(shù)據(jù)時(shí),有許多經(jīng)過預(yù)訓(xùn)練的模型可供使用,這些模型已經(jīng)在具有數(shù)千個(gè)標(biāo)簽的數(shù)據(jù)集上進(jìn)行了訓(xùn)練,由于這些模型通過其應(yīng)用程序api的Tensorflow和Keras分布,我們可以使用這些模型,這使得在我們的應(yīng)用程序中包含這些預(yù)先訓(xùn)練的模型看起來很容易!

總之,遷移學(xué)習(xí)采用的是經(jīng)過預(yù)訓(xùn)練的模型,并且不包含進(jìn)行最終預(yù)測(cè)的最終層,能夠區(qū)分這種情況下圖像中的特征,并將這些信息傳遞給我們自己的Dense神經(jīng)網(wǎng)絡(luò)。為什么不訓(xùn)練你自己的模型呢?完全取決于你!然而,使用遷移學(xué)習(xí)可以在很多時(shí)候使你的進(jìn)步更快,從某種意義上說,你避免了重復(fù)造輪子。

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)