亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

YOLO目標檢測模型原理介紹

妤鋒シ / 2437人閱讀

摘要:將圖像到作為輸入,輸出,即將圖片劃分為,每個單元格獨立檢測。類別損失當有物體的中心點落在單元格中,此單元格就負責預(yù)測該物體。

YOLO-v1介紹

YOLO是一個端到端的目標檢測算法,不需要預(yù)先提取region proposal(RCNN目標檢測系列),通過一個網(wǎng)絡(luò)就可以輸出:類別,置信度,坐標位置,檢測速度很快,不過,定位精度相對低些,特別是密集型小目標。

YOLO將圖像resize到448x448作為輸入,輸出7x7x30,即:將圖片劃分為7x7,每個單元格獨立檢測。這里需要注意,不是那種滑動窗口將每個單元格都輸入到網(wǎng)絡(luò)中進行預(yù)測,這里的劃分只是物體中心點位置的劃分之用(劃分越多越準確),物體的中心落在哪個單元格,就由那個單元格負責預(yù)測。說完7x7我們再說下另一個維度30,30=(2*5=20),其中“2:每個單元格預(yù)測數(shù)量(box數(shù)量)”,“5:(x,y,w,h,score)”,“20:模型可以預(yù)測20個種類”。

YOLO-v1訓練

模型首先會將ImageNet作為訓練集預(yù)訓練模型,最終達到88%精度,然后使用遷移學習將預(yù)訓練的模型應(yīng)用到當前標注的訓練集進行訓練。模型輸出5維信息(x,y,w,h,score),使用Leaky Relu作為激活函數(shù),全連接層后添加Dropout層防止過擬合。在得到輸出值之后,我們需要計算每個box與ground true的Iou值,然后通過非極大值抑制篩選box。

YOLO-v1損失函數(shù)

損失函數(shù)包含三部分分別是:坐標損失,置信度損失(7x7x2),類別損失(7x7x20)。
坐標損失:

我們使用SSE損失函數(shù)(就是MSE損失函數(shù)的累加版本),如圖所示我們在“w,h”中加了根號,加根號的原因是,“w,h”的損失在大框和小框之間“權(quán)重”應(yīng)該不同。因為,對應(yīng)圖像中較大的物體而言,box有些偏移一般并不會影響預(yù)測結(jié)果。但是對應(yīng)小物體而言,同樣的偏移可能會脫離預(yù)測目標。
置信度損失:

如圖所示,損失函數(shù)分為兩部分:有物體,沒有物體,其中沒有物體損失部分還增加了權(quán)重系數(shù)。添加權(quán)重系數(shù)的原因是,對于一幅圖像,一般而言大部分內(nèi)容是不包含待檢測物體的,這樣會導致沒有物體的計算部分貢獻會大于有物體的計算部分,這會導致網(wǎng)絡(luò)傾向于預(yù)測單元格不含有物體。因此,我們要減少沒有物體計算部分的貢獻權(quán)重,比如取值為:0.5。
類別損失:

當有物體的中心點落在單元格中,此單元格就負責預(yù)測該物體。

YOLO-v2改進

使用批標準化:隨著神經(jīng)網(wǎng)絡(luò)的訓練,網(wǎng)絡(luò)層的輸入分布會發(fā)生變動,逐漸向激活函數(shù)取值兩端靠攏,如:sigmoid激活函數(shù),此時會進入飽和狀態(tài),梯度更新緩慢,對輸入變動不敏感,甚至梯度消失導致模型難以訓練。BN,在網(wǎng)絡(luò)層輸入激活函數(shù)輸入值之前加入,可以將分布拉到均值為0,標準差為1的正態(tài)分布,從而使激活函數(shù)處于對輸入值敏感的區(qū)域,從而加快模型訓練。此外,BN還能起到類似dropout的正則化作用,由于我們會有‘強拉’操作,所以對初始化要求沒有那么高,可以使用較大的學習率。

High Resolution Classifier:在介紹YOLO-v1的時候我們說到,模型需要先在ImageNet上預(yù)訓練模型,因此,此時圖像輸入為224x224,使用遷移學習訓練后我們的圖像輸入是448x448,因此模型需要適應(yīng)圖像分辨率的改變。在YOLO-v2中,我們在預(yù)訓練模型中先224x224訓練160個epoch,然后將輸入調(diào)整到448x448,再跑10個epoch,也就是在ImageNet數(shù)據(jù)集中兩種分辨率跑兩次。YOLO大神作者實現(xiàn)表明,這樣操作可以提高4%的map。

Convolutional With Anchor Boxes:
1,加入anchor boxes,提高box數(shù)量。
2,刪除全連接層和最后一個池化層,保留更高分辨率特征。
3,用416x416代替448x448輸入大小,使特征圖有奇數(shù)大小的高和寬。

Dimension Clusters:使用k-means的方式對訓練集的bounding boxes做聚類,但是該方法存在不同尺寸的box誤差權(quán)重不同,我們希望誤差與尺寸沒有關(guān)系,因此通過IOU定義如下函數(shù):

Multi-Scale Training:訓練階段,采用32的倍數(shù)作為圖像尺寸動態(tài)輸入,如【320,352。。。608】。這種網(wǎng)絡(luò)訓練方式使得相同網(wǎng)絡(luò)可以對不同分辨率的圖像做detection。

使用Darknet-19作為后端網(wǎng)絡(luò):

YOLO-v3

YOLO-v3結(jié)構(gòu)圖以來自木盞,表示感謝,也歡迎關(guān)注他的博客。

DBL:指Darknetconv2d_BN_Leaky。
resn:指:n代表數(shù)字,有res1,res2, … ,res8等等,表示這個res_block里含有多少個res_unit,使用殘差結(jié)構(gòu)可以讓網(wǎng)絡(luò)更深。
concat:張量拼接。將darknet中間層和后面的某一層的上采樣進行拼接。拼接的操作和殘差層add的操作是不一樣的,拼接會擴充張量的維度,而add只是直接相加不會導致張量維度的改變。

后端網(wǎng)絡(luò)使用darknet-53:

我們發(fā)現(xiàn),在YOLO-v3網(wǎng)絡(luò)中沒有池化層和全連接層,那么張量尺寸的變化是通過改變卷積核步長來實現(xiàn)。同YOLO-v2一樣,輸出尺寸為輸入尺寸的1/32,即:一般要求輸入圖像尺寸是32的倍數(shù)。

類別預(yù)測由softmax改為logistic(使用sigmoid):用于處理預(yù)測物體之間存在包含關(guān)系問題,解決多標簽對象支持。比如woman和person,softmax輸出:person,logistic輸出兩者。

使用多尺度特征預(yù)測物體:

上圖是YOLO-v3COCO數(shù)據(jù)集上使用聚類得到的9種先驗框,一個代表寬度一個代表高度。在不同的感受野中使用不同的先驗框。如果先驗框不是最佳的,即使超過預(yù)設(shè)定的閾值,也不會進行預(yù)測。logistic回歸用來從9個先驗框中找到最佳的那個。

補充:Iou計算

總結(jié)

YOLO好不好,我們就以一張圖作為總結(jié)吧:

祝大家2018年圣誕節(jié)快樂!

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/19878.html

相關(guān)文章

  • YOLO目標檢測模型原理介紹

    摘要:將圖像到作為輸入,輸出,即將圖片劃分為,每個單元格獨立檢測。類別損失當有物體的中心點落在單元格中,此單元格就負責預(yù)測該物體。 YOLO-v1介紹 YOLO是一個端到端的目標檢測算法,不需要預(yù)先提取region proposal(RCNN目標檢測系列),通過一個網(wǎng)絡(luò)就可以輸出:類別,置信度,坐標位置,檢測速度很快,不過,定位精度相對低些,特別是密集型小目標。 showImg(https:...

    cjie 評論0 收藏0
  • YOLO算法的原理與實現(xiàn)

    摘要:近幾年來,目標檢測算法取得了很大的突破。本文主要講述算法的原理,特別是算法的訓練與預(yù)測中詳細細節(jié),最后將給出如何使用實現(xiàn)算法。但是結(jié)合卷積運算的特點,我們可以使用實現(xiàn)更高效的滑動窗口方法。這其實是算法的思路。下面將詳細介紹算法的設(shè)計理念。 1、前言當我們談起計算機視覺時,首先想到的就是圖像分類,沒錯,圖像分類是計算機視覺最基本的任務(wù)之一,但是在圖像分類的基礎(chǔ)上,還有更復雜和有意思的任務(wù),如目...

    zhangfaliang 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<