訂閱
糾錯
加入自媒體

如何使用Python+OpenCV+Keras實現(xiàn)無口罩車輛駕駛員懲罰生成

介紹

我們知道,在當(dāng)前形勢下,我們正在逐步穩(wěn)定地克服大流行病的情況,而且情況每天都在改善。但是,眾所周知,即使已經(jīng)開始接種疫苗,徹底根除該病毒仍需花費很多年。因此,為安全起見,在接下來的幾年中,我們所有人都可能會習(xí)慣于戴口罩。就違反交通規(guī)則而言,政府仍然嚴(yán)格對在路上開車不戴口罩的人處以罰款。建立一個系統(tǒng),能夠追蹤所有交通違法者的細(xì)節(jié),提高公民的意識和紀(jì)律,是一個非常有用的辦法。還可以通過另外創(chuàng)建一個儀表板監(jiān)視程序來跟蹤該交通規(guī)則違反者的增加或減少,在給定期間內(nèi)收集罰款,確定主要違反規(guī)則的人群,從而改善該系統(tǒng)。工作范圍作為代碼實現(xiàn)的一部分,我們計劃設(shè)計一個模型,將圖像分類為戴口罩的和沒戴口罩的。對于獲得的屬于沒戴口罩類別的圖像,我們獲取車輛號牌的圖像,并嘗試提取車輛詳細(xì)信息。車牌識別使用第二個模型完成,該模型接收帶有車牌的輸入作為汽車圖像。一旦完成了車輛ID,我們便將詳細(xì)信息傳遞到虛擬數(shù)據(jù)庫,該數(shù)據(jù)庫包含車牌持有人的數(shù)據(jù)以及車輛的詳細(xì)信息。根據(jù)數(shù)據(jù)驗證,我們將產(chǎn)生罰款,該罰款將直接發(fā)送到違規(guī)者的家庭住址。軟件架構(gòu)

網(wǎng)頁抓取圖片

項目始于確定要使用的數(shù)據(jù)集的問題。在我們的項目中,在線沖浪幾乎無法為我們提供可用于我們項目的現(xiàn)有數(shù)據(jù)集。因此,我們決定應(yīng)用網(wǎng)絡(luò)抓取收集戴口罩和沒戴口罩的圖像。我們使用Beautiful Soap and Requests庫從網(wǎng)站下載圖像并將其保存到包含戴口罩和沒帶口罩駕駛員的不同文件夾中。我們從下面的URL中提取了數(shù)據(jù),這些URL由已屏蔽圖像和未屏蔽圖像組成。鏈接url1 = https://www.gettyimages.in/photos/driving-mask?page=鏈接url2 = https://www.gettyimages.in/photos/driving-without-mask?page=下面是一段代碼,演示了Web上的圖像抓取。from bs4 import *
import requests as rq
import os
url1 = 'https://www.gettyimages.in/photos/driving-mask?page='
url2 = '&phrase=driving%20mask&sort=mostpopular'
url_list=[]
Links = []
for i in range(1,56):
   full_url = url1+str(i)+url2
   url_list.a(chǎn)ppend(full_url)
for lst in url_list:
   r2 = rq.get(lst)
   soup = BeautifulSoup(r2.text, 'html.parser')
   x=soup.select('img[src^="https://media.gettyimages.com/photos/"]')
   for img in x:
       Links.a(chǎn)ppend(img['src'])
   print(len(Links))
for index, img_link in enumerate(Links):
  if i <= len(Links):
      img_data = rq.get(img_link).content
      with open("Masked_Drivers/" + str(index + 1) + '.jpg', 'wb+') as f:
          f.write(img_data)
          i += 1

圖像預(yù)處理在將圖像發(fā)送到模型之前,我們需要應(yīng)用一些清理技術(shù),例如圖像大小調(diào)整圖像的灰度和將像素重新縮放為較低的值。之后,圖像和目標(biāo)將保存在陣列中。import cv2,os
data_path='Dataset'
categories=os.listdir(data_path)
labels=[i for i in range(len(categories))]
label_dict=dict(zip(categories,labels)) #empty dictionary
print(label_dict)
print(categories)
print(labels)
img_size=100
data=[]
target=[]
img_size=100
data=[]
target=[]
for category in categories:
   folder_path=os.path.join(data_path,category)
   img_names=os.listdir(folder_path)
       
   for img_name in img_names:
       img_path=os.path.join(folder_path,img_name)
       img=cv2.imread(img_path)
       try:
           gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)          
           #Coverting the image into gray scale
           resized=cv2.resize(gray,(img_size,img_size))
           #resizing the gray scale into 50x50, since we need a fixed common size for all the images in the dataset
           data.a(chǎn)ppend(resized)
           target.a(chǎn)ppend(label_dict[category])
           #appending the image and the label(categorized) into the list (dataset)
       except Exception as e:
           print('Exception:',e)
           
         
 import numpy as np
data=np.a(chǎn)rray(data)/255.0
data=np.reshape(data,(data.shape[0],img_size,img_size,1))
target=np.a(chǎn)rray(target)
from keras.utils import np_utils
new_target=np_utils.to_categorical(target)
np.save('data',data)
np.save('target',new_target)

建立模型在這里,我們使用Keras的Sequential設(shè)計CNN模型。使用大約200個神經(jīng)元作為輸入來構(gòu)建CNN。應(yīng)用激活函數(shù)和最大池化技術(shù)后,我們將獲得另一組輸出特征,這些特征將通過Conv2D的另一層傳遞。最后,我們從softmax中獲得2個輸出,它們代表輸入圖像的戴口罩或未戴口罩狀態(tài)。from keras.models import Sequential
from keras.layers import Dense,Activation,F(xiàn)latten,Dropout
from keras.layers import Conv2D,MaxPooling2D
from keras.callbacks import ModelCheckpoint
model=Sequential()
model.a(chǎn)dd(Conv2D(200,(3,3),input_shape=data.shape[1:]))
model.a(chǎn)dd(Activation('relu'))
model.a(chǎn)dd(MaxPooling2D(pool_size=(2,2)))
model.a(chǎn)dd(Conv2D(100,(3,3)))
model.a(chǎn)dd(Activation('relu'))
model.a(chǎn)dd(MaxPooling2D(pool_size=(2,2)))
model.a(chǎn)dd(Flatten())
model.a(chǎn)dd(Dropout(0.5))
model.a(chǎn)dd(Dense(50,activation='relu'))
model.a(chǎn)dd(Dense(2,activation='softmax'))
model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])
訓(xùn)練和測試模型構(gòu)建CNN模型后,我們將數(shù)據(jù)分為訓(xùn)練集和測試集。后來,我們通過設(shè)置各種參數(shù)(例如時期,訓(xùn)練集,驗證集和驗證拆分值),在訓(xùn)練和測試數(shù)據(jù)上擬合CNN模型。from sklearn.model_selection import train_test_split
train_data,test_data,train_target,test_target=train_test_split(data,target,test_size=0.4)
checkpoint = ModelCheckpoint('model-{epoch:03d}.model',monitor='val_loss',verbose=0,save_best_only=True,mode='auto')
history=model.fit(train_data,train_target,epochs=20,callbacks=[checkpoint],validation_split=0.1)

1  2  3  4  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號