訂閱
糾錯(cuò)
加入自媒體

使用Tensorflow+OpenCV構(gòu)建會(huì)玩石頭剪刀布的AI

我已經(jīng)使用DenseNet121模型進(jìn)行特征提取,其輸出最終將輸入到我自己的Dense神經(jīng)網(wǎng)絡(luò)中。

densenet = DenseNet121(include_top=False, weights='imagenet', classes=3,input_shape=(300,300,3))

densenet.trainable=True

def genericModel(base):

model = Sequential()

model.a(chǎn)dd(base)

model.a(chǎn)dd(MaxPool2D())

model.a(chǎn)dd(Flatten())

model.a(chǎn)dd(Dense(3,activation='softmax'))

model.compile(optimizer=Adam(),loss='categorical_crossentropy',metrics=['acc'])

return model

dnet = genericModel(densenet)

history = dnet.fit(

x=imgData,

y=labels,

batch_size = 16,

epochs=8,

callbacks=[checkpoint,es],

validation_split=0.2

關(guān)鍵點(diǎn) :由于我們的圖片尺寸為300x300,因此指定的輸入形狀也為3x300x300,3代表RGB的維度信息,因此該層具有足夠的神經(jīng)元來(lái)處理整個(gè)圖像。我們將DenseNet層用作第一層,然后使用我們自己的Dense神經(jīng)網(wǎng)絡(luò)。我已將可訓(xùn)練參數(shù)設(shè)置為T(mén)rue,這也會(huì)重新訓(xùn)練DenseNet的權(quán)重。盡管花了很多時(shí)間,但是這給了我更好的結(jié)果。我建議你在自己的實(shí)現(xiàn)中嘗試通過(guò)更改此類(lèi)參數(shù)(也稱(chēng)為超參數(shù))來(lái)嘗試不同的迭代。由于我們有3類(lèi)Rock-Paper-Scissor,最后一層是具有3個(gè)神經(jīng)元和softmax激活的全連接層。最后一層返回圖像屬于3類(lèi)中特定類(lèi)的概率。如果你引用的是GitHub repo(https://github.com/HOD101s/RockPaperScissor-AI-) 的train.py,則要注意數(shù)據(jù)準(zhǔn)備和模型訓(xùn)練!至此,我們已經(jīng)收集了數(shù)據(jù),建立并訓(xùn)練了模型,剩下的部分是使用OpenCV進(jìn)行部署OpenCV實(shí)現(xiàn):此實(shí)現(xiàn)的流程很簡(jiǎn)單:?jiǎn)?dòng)網(wǎng)絡(luò)攝像頭并讀取每個(gè)幀將此框架傳遞給模型進(jìn)行分類(lèi),即預(yù)測(cè)類(lèi)用電腦隨意移動(dòng)計(jì)算分?jǐn)?shù)def prepImg(pth):

return cv2.resize(pth,(300,300)).reshape(1,300,300,3)

with open('model.json', 'r') as f:

loaded_model_json = f.read()

loaded_model = model_from_json(loaded_model_json)

loaded_model.load_weights("modelweights.h5")

print("Loaded model from disk")

for rounds in range(NUM_ROUNDS):

pred = ""

for i in range(90):

ret,frame = cap.read()

# Countdown

if i//20 < 3 :

frame = cv2.putText(frame,str(i//20+1),(320,100),cv2.FONT_HERSHEY_SIMPLEX,3,(250,250,0),2,cv2.LINE_AA)

# Prediction

elif i/20 < 3.5:

pred = arr_to_shape[np.a(chǎn)rgmax(loaded_model.predict(prepImg(frame[50:350,100:400])))]

# Get Bots Move

elif i/20 == 3.5:

bplay = random.choice(options)

print(pred,bplay)

# Update Score

elif i//20 == 4:

playerScore,botScore = updateScore(pred,bplay,playerScore,botScore)

break

cv2.rectangle(frame, (100, 150), (300, 350), (255, 255, 255), 2)
       frame = cv2.putText(frame,"Player : {}      Bot : {}".format(playerScore,botScore),(120,400),cv2.FONT_HERSHEY_SIMPLEX,1,(250,250,0),2,cv2.LINE_AA)

frame = cv2.putText(frame,pred,(150,140),cv2.FONT_HERSHEY_SIMPLEX,1,(250,250,0),2,cv2.LINE_AA)

frame = cv2.putText(frame,"Bot Played : {}".format(bplay),(300,140),cv2.FONT_HERSHEY_SIMPLEX,1,(250,250,0),2,cv2.LINE_AA)

cv2.imshow('Rock Paper Scissor',frame)

if cv2.waitKey(1) & 0xff == ord('q'):

break

上面的代碼片段包含相當(dāng)重要的代碼塊,其余部分只是使游戲易于使用,RPS規(guī)則和得分。所以我們開(kāi)始加載我們訓(xùn)練過(guò)的模型,它在開(kāi)始程序的預(yù)測(cè)部分之前顯示倒計(jì)時(shí),預(yù)測(cè)后,分?jǐn)?shù)會(huì)根據(jù)球員的動(dòng)作進(jìn)行更新。

我們使用cv2.rectangle()顯式地繪制目標(biāo)區(qū)域,使用prepImg()函數(shù)預(yù)處理后,只有幀的這一部分傳遞給模型進(jìn)行預(yù)測(cè)。

結(jié)論:我們已經(jīng)成功地實(shí)現(xiàn)并學(xué)習(xí)了這個(gè)項(xiàng)目的工作原理,所以請(qǐng)繼續(xù)使用我的實(shí)現(xiàn)進(jìn)行其它實(shí)驗(yàn)學(xué)習(xí)。我做的一個(gè)主要的改進(jìn)可能是增加了手部檢測(cè),所以我們不需要顯式地繪制目標(biāo)區(qū)域,模型將首先檢測(cè)手部位置,然后進(jìn)行預(yù)測(cè)。我鼓勵(lì)你改進(jìn)這個(gè)項(xiàng)目,并給我你的建議。精益求精!

<上一頁(yè)  1  2  3  
聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀(guān)點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)