摘要:來(lái)自原作者,快如閃電,可稱目標(biāo)檢測(cè)之光。實(shí)現(xiàn)教程去年月就出現(xiàn)了,實(shí)現(xiàn)一直零零星星。這份實(shí)現(xiàn),支持用自己的數(shù)據(jù)訓(xùn)練模型?,F(xiàn)在可以跑腳本了來(lái)自原作者拿自己的數(shù)據(jù)集訓(xùn)練快速訓(xùn)練這個(gè)就是給大家一個(gè)粗略的感受,感受的訓(xùn)練過(guò)程到底是怎樣的。
來(lái)自YOLOv3原作者
YOLOv3,快如閃電,可稱目標(biāo)檢測(cè)之光。
PyTorch實(shí)現(xiàn)教程去年4月就出現(xiàn)了,TensorFlow實(shí)現(xiàn)一直零零星星。
現(xiàn)在,有位熱心公益的程序猿 (Yunyang1994) ,為它做了純TensorFlow代碼實(shí)現(xiàn)。
這份實(shí)現(xiàn),支持用自己的數(shù)據(jù)訓(xùn)練模型。
介紹一下
TensorFlow實(shí)現(xiàn),包含了以下部分:
· YOLOv3架構(gòu)
· 權(quán)重轉(zhuǎn)換器 (Weight Converter)
· 基礎(chǔ)版Demo
· GPU和CPU上都支持非極大抑制 (Non-Maximum Suppression)
· 訓(xùn)練pipeline
· COCO mAP計(jì)算
來(lái)自YOLOv3原作者
快速開(kāi)始
四個(gè)步驟,速速上車。
1.復(fù)制這個(gè)文件:
1$ git clone https://github.com/YunYang1994/tensorflow-yolov3.git
2.在食用代碼前,先安裝一些依賴項(xiàng):
1$ cd tensorflow-yolov3
2$ pip install -r ./docs/requirements.txt
3.把加載好的COCO權(quán)重導(dǎo)出為T(mén)F checkpoint (yolov3.ckpt) 和 frozen graph (yolov3_gpu_nms.pb) 。
如果你沒(méi)有yolov3.weights的話,去下載,然后放到./checkpoint目錄下。下載地址是:
https://github.com/YunYang1994/tensorflow-yolov3/releases/download/v1.0/yolov3.weights
1$ python convert_weight.py --convert --freeze
4.然后,./checkpoint目錄下就會(huì)出現(xiàn)一些.pb文件。現(xiàn)在可以跑Demo腳本了:
1$ python nms_demo.py
2$ python video_demo.py # if use camera, set video_path = 0
來(lái)自YOLOv3原作者
拿自己的數(shù)據(jù)集訓(xùn)練
快速訓(xùn)練
這個(gè)Demo就是給大家一個(gè)粗略的感受,感受YOLOv3的訓(xùn)練過(guò)程到底是怎樣的。
用python core/convert_tfrecord.py把你的圖集轉(zhuǎn)成TFRecords。
1$ python core/convert_tfrecord.py --dataset /data/train_data/quick_train_data/quick_train_data.txt ?--tfrecord_path_prefix /data/train_data/quick_train_data/tfrecords/quick_train_data
2$ python quick_train.py ?# start training
訓(xùn)練COCO數(shù)據(jù)集
如果還沒(méi)下載COCO2017數(shù)據(jù)集,請(qǐng)前往:
http://cocodataset.org/
再把數(shù)據(jù)集放到./data/train_data/COCO里面。
1$ cd data/train_data/COCO
2$ wget http://images.cocodataset.org/zips/train2017.zip
3$ unzip train2017.zip
4$ wget http://images.cocodataset.org/annotations/annotations_trainval2017.zip
5$ unzip annotations_trainval2017.zip
然后,就要從數(shù)據(jù)集里提取一些有用的信息了,比如邊界框,拿這些信息生成你自己的.txt文件。
1$ python core/extract_coco.py --dataset_info_path ./data/train_data/COCO/train2017.txt
?來(lái)自YOLOv3原作者
上面這步得到的文件是./data/train_data/COCO/train2017.txt。拿一張圖舉栗,應(yīng)該長(zhǎng)這樣:
1As a result, you will get ./data/train_data/COCO/train2017.txt. Here is an example row for one image:
2
3/home/yang/test/tensorflow-yolov3/data/train_data/train2017/000000458533.jpg 20 18.19 6.32 424.13 421.83 20 323.86 2.65 640.0 421.94
4/home/yang/test/tensorflow-yolov3/data/train_data/train2017/000000514915.jpg 16 55.38 132.63 519.84 380.4
5# image_path, category_id, x_min, y_min, x_max, y_max, category_id, x_min, y_min, ...
接下來(lái),要把圖像數(shù)據(jù)集轉(zhuǎn)成.tfrecord,就是用二進(jìn)制來(lái)保存數(shù)據(jù)。最后,可以訓(xùn)練啦。
1$ python core/convert_tfrecord.py --dataset ./data/train_data/COCO/train2017.txt ?--tfrecord_path_prefix ./data/train_data/COCO/tfrecords/coco --num_tfrecords 100
2$ python train.py
COCO評(píng)估
如果要看一下模型在COCO上的表現(xiàn),就這樣做:
1$ cd data/train_data/COCO
2$ wget http://images.cocodataset.org/zips/test2017.zip
3$ wget http://images.cocodataset.org/annotations/image_info_test2017.zip?
4$ unzip test2017.zip
5$ unzip image_info_test2017.zip
?來(lái)自YOLOv3原作者
“我今年沒(méi)干啥”
YOLO系列的作者,是華盛頓大學(xué)兩位畫(huà)風(fēng)奇崛的研究人員,一個(gè)叫Joseph Redmon,一個(gè)叫Ali Farhadi。
去年3月YOLOv3發(fā)布,兩位在論文里是這樣描述這項(xiàng)成果的:
我今年基本沒(méi)做啥研究,凈刷推特了,也玩了一小會(huì)兒GAN。去年還剩一點(diǎn)動(dòng)力沒(méi)用完,就給YOLO更了個(gè)新。沒(méi)什么特別有意思的東西,一些細(xì)小的改動(dòng)而已。
Introduction滿分
但嚴(yán)肅地說(shuō),速度是v3最主要的提升。一般來(lái)講,YOLOv3比R-CNN快1000倍,比Fast R-CNN快100倍。
有一些人啊,看起來(lái)常年不做正事,但還是能拿出精彩的成果。
YOLOv3 TensorFlow實(shí)現(xiàn)傳送門(mén):
https://github.com/YunYang1994/tensorflow-yolov3
(早就出了的) YOLO v3 PyTorch教程傳送門(mén):
https://github.com/ayooshkathuria/YOLO_v3_tutorial_from_scratch
聲明:文章收集于網(wǎng)絡(luò),為傳播信息而發(fā),如有侵權(quán),請(qǐng)聯(lián)系小編及時(shí)處理,謝謝!
商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/4850.html
摘要:近日,來(lái)自華盛頓大學(xué)的和提出的版本。而那些評(píng)分較高的區(qū)域就可以視為檢測(cè)結(jié)果。此外,相對(duì)于其它目標(biāo)檢測(cè)方法,我們使用了完全不同的方法。從圖中可以看出準(zhǔn)確率高,速度也快。對(duì)于的圖像,可以達(dá)到的檢測(cè)速度,獲得的性能,與的準(zhǔn)確率相當(dāng)?shù)撬俣瓤毂丁?近日,來(lái)自華盛頓大學(xué)的 Joseph Redmon 和 Ali Farhadi 提出 YOLO 的版本 YOLOv3。通過(guò)在 YOLO 中加入設(shè)計(jì)細(xì)節(jié)的變...
閱讀 4717·2021-09-10 11:22
閱讀 599·2019-08-30 11:17
閱讀 2623·2019-08-30 11:03
閱讀 479·2019-08-29 11:18
閱讀 3521·2019-08-28 17:59
閱讀 3274·2019-08-26 13:40
閱讀 3253·2019-08-26 10:29
閱讀 1204·2019-08-26 10:14