訂閱
糾錯(cuò)
加入自媒體

python+keras:識(shí)別狗的品種,準(zhǔn)確率超過80%!

在這篇文章中,將教大家實(shí)現(xiàn)一個(gè)網(wǎng)頁應(yīng)用程序,該程序可以接收狗的圖片,然后輸出其品種,其準(zhǔn)確率超過80%!

我們將使用深度學(xué)習(xí)來訓(xùn)練一個(gè)識(shí)別狗品種的模型,數(shù)據(jù)集是狗圖像與他們的品種信息,通過學(xué)習(xí)圖像的特征來區(qū)分狗的品種。數(shù)據(jù)分析數(shù)據(jù)集可以從這里下載(https://s3-us-west-1.a(chǎn)mazonaws.com/udacity-aind/dog-project/dogImages.zip)。以下是關(guān)于數(shù)據(jù)的一些介紹:犬種總數(shù):133狗圖片總數(shù):8351(訓(xùn)練集:6680,驗(yàn)證集:835,測(cè)試集:836)最受歡迎的品種:阿拉斯加對(duì)應(yīng)96個(gè)樣本,博德牧羊犬對(duì)應(yīng)93個(gè)樣本按圖片數(shù)量排序的前30個(gè)品種如下:

我們還可以在這里看到一些狗的圖片和它們的品種:

數(shù)據(jù)預(yù)處理我們會(huì)把每個(gè)圖像作為一個(gè)numpy數(shù)組進(jìn)行加載,并將它們的大小調(diào)整為224x224,這是大多數(shù)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)接受圖像的默認(rèn)大小,另外我們?yōu)閳D像的數(shù)量添加為另一個(gè)維度。from keras.preprocessing import image                  from tqdm import tqdm

def path_to_tensor(img_path):    '''將給定路徑下的圖像轉(zhuǎn)換為張量'''    img = image.load_img(img_path, target_size=(224, 224))    x = image.img_to_array(img)    return np.expand_dims(x, axis=0)

def paths_to_tensor(img_paths):    '''將給定路徑中的所有圖像轉(zhuǎn)換為張量'''    list_of_tensors = [path_to_tensor(img_path) for img_path in tqdm(img_paths)]    return np.vstack(list_of_tensors)最后,我們使用ImageDataGenerator對(duì)圖像進(jìn)行動(dòng)態(tài)縮放和增強(qiáng)train_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255,                                                horizontal_flip=True,                                                vertical_flip=True,                                                rotation_range=20)

valid_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255.)

test_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255.)

train_generator = train_datagen.flow(train_tensors, train_targets, batch_size=32)valid_generator = train_datagen.flow(valid_tensors, valid_targets, batch_size=32)test_generator = train_datagen.flow(test_tensors, test_targets, batch_size=32)CNN我們將在預(yù)處理數(shù)據(jù)集上從頭開始訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(CNN),如下所示:model = tf.keras.models.Sequential([    tf.keras.layers.Conv2D(16, (3,3), activation='relu', input_shape=(224, 224, 3)),    tf.keras.layers.MaxPooling2D(2, 2),    tf.keras.layers.Conv2D(32, (3,3), activation='relu'),    tf.keras.layers.MaxPooling2D(2,2),    tf.keras.layers.Conv2D(64, (3,3), activation='relu'),    tf.keras.layers.MaxPooling2D(2,2),    tf.keras.layers.Conv2D(128, (3,3), activation='relu'),    tf.keras.layers.MaxPooling2D(2,2),    tf.keras.layers.Conv2D(256, (3,3), activation='relu'),    tf.keras.layers.MaxPooling2D(2,2),    tf.keras.layers.Flatten(),    tf.keras.layers.Dense(2048, activation='softmax'),    tf.keras.layers.Dropout(0.5),    tf.keras.layers.Dense(1024, activation='softmax'),    tf.keras.layers.Dropout(0.5),    tf.keras.layers.Dense(133, activation='softmax')])

model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy'])

checkpointer = tf.keras.callbacks.ModelCheckpoint(filepath='../saved_models/weights_best_custom.hdf5',                                verbose=1, save_best_only=True)

1  2  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)