亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

【譯】讓你的電腦學(xué)會(huì)同時(shí)識(shí)別多個(gè)物體

duan199226 / 902人閱讀

摘要:工作原理以前的檢測系統(tǒng)通過重復(fù)利用分類器和定位器來實(shí)現(xiàn)目標(biāo)識(shí)別。修改檢測閾值缺省情況下,只顯示信心大于的對(duì)象。用法如下這個(gè),呵呵,不完美把白馬識(shí)別成綿羊了,把黑狗識(shí)別成奶牛了,但確實(shí)很快。

原標(biāo)題:YOLO: Real-Time Object Detection
英文原文:https://pjreddie.com/darknet/...

強(qiáng)烈推薦(TED視頻):https://www.ted.com/talks/jos...

You only look once (YOLO)是目前最先進(jìn)的實(shí)時(shí)對(duì)象檢測系統(tǒng)。在一臺(tái)Titan X上它能實(shí)時(shí)處理40-90幀每秒的圖像,并且準(zhǔn)確率高達(dá)78.6%VOC 2007)和48.1%COCO test-dev)。

Model    Train    Test    mAP    FLOPS    FPS    Cfg    Weights
Old YOLO    VOC 2007+2012    2007    63.4    40.19 Bn    45    link
SSD300      VOC 2007+2012    2007    74.3    -    46    link
SSD500      VOC 2007+2012    2007    76.8    -    19    link
YOLOv2      VOC 2007+2012    2007    76.8    34.90 Bn    67    cfg    weights
YOLOv2 544x544    VOC 2007+2012    2007    78.6    59.68 Bn    40    cfg    weights
Tiny YOLO    VOC 2007+2012    2007    57.1    6.97 Bn    207    cfg    weights
SSD300    COCO trainval    test-dev    41.2    -    46    link
SSD500    COCO trainval    test-dev    46.5    -    19    link
YOLOv2 608x608    COCO trainval    test-dev    48.1    62.94 Bn    40    cfg    weights
Tiny YOLO    COCO trainval    -    -    7.07 Bn    200    cfg    weights
工作原理

以前的檢測系統(tǒng)通過重復(fù)利用分類器和定位器來實(shí)現(xiàn)目標(biāo)識(shí)別。它們把模型套在圖像的不同位置和大小區(qū)域,通過圖像各區(qū)域的最高分值來判定結(jié)果。

我們使用了完全不同的方法。我們通過把一個(gè)多帶帶的神經(jīng)網(wǎng)絡(luò)放在整個(gè)圖像上來進(jìn)行識(shí)別。這個(gè)網(wǎng)絡(luò)把圖像分成區(qū)域并對(duì)邊框和各區(qū)域的可能性進(jìn)行預(yù)測。這些邊框通過預(yù)測到的可能性進(jìn)行加權(quán)。

我們的模型相比于基于分類器的系統(tǒng)有幾個(gè)優(yōu)勢。它在測試時(shí)觀察整個(gè)圖像,所以它的預(yù)測是基于整個(gè)圖像上下文的。并且它通過一個(gè)單一網(wǎng)絡(luò)進(jìn)行預(yù)測,不像那些R-CNN系統(tǒng)需要對(duì)一幅圖像運(yùn)用上千的網(wǎng)絡(luò)。這一特點(diǎn)使我們的系統(tǒng)超級(jí)快,速度是R-CNN的上千倍,一百倍快于快速R-CNN。想對(duì)全系統(tǒng)有更深入了解,可以閱讀我們的論文。

使用預(yù)先訓(xùn)練好的模型進(jìn)行預(yù)測

下面帶你使用預(yù)先訓(xùn)練好的模型通過YOLO系統(tǒng)進(jìn)行對(duì)象檢測。如果你還沒有安裝Darknet的話,你可以通過以下命令安裝:

git clone https://github.com/pjreddie/darknet
cd darknet
make

就是這么簡單!

cfg/子目錄下已經(jīng)預(yù)置好了YOLO的配置文件。你還需要下載預(yù)先訓(xùn)練好的權(quán)重文件(258 MB):

wget https://pjreddie.com/media/files/yolo.weights

然后就可以開始運(yùn)行檢測器了!

./darknet detect cfg/yolo.cfg yolo.weights data/dog.jpg

你會(huì)看到類似下面這樣的輸出:

layer     filters    size              input                output
    0 conv     32  3 x 3 / 1   416 x 416 x   3   ->   416 x 416 x  32
    1 max          2 x 2 / 2   416 x 416 x  32   ->   208 x 208 x  32
    .......
   29 conv    425  1 x 1 / 1    13 x  13 x1024   ->    13 x  13 x 425
   30 detection
Loading weights from yolo.weights...Done!
data/dog.jpg: Predicted in 0.016287 seconds.
car: 54%
bicycle: 51%
dog: 56%

Darknet顯示出它檢測到的對(duì)象、信心以及花了多少時(shí)間。因?yàn)槲覀儧]有把DarknetOpenCV一起編譯,所以不能直接顯示圖像結(jié)果。但是我們把圖像結(jié)果保存在了predictions.png文件里。你可以打開這個(gè)文件看到檢測之后的結(jié)果。因?yàn)槲覀儸F(xiàn)在是在CPU上運(yùn)行Darknet,所以它會(huì)花費(fèi)6到12秒的時(shí)間才能處理一幅圖像。如果我們用GPU版本的話,所需時(shí)間會(huì)短得多。

我在這里提供了其它幾幅圖像,如果你感興趣可以逐一嘗試一下。試試data/eagle.jpg, data/dog.jpg, data/person.jpgdata/horses.jpg吧!

上面那個(gè)命令里的detect是一個(gè)更通用命令的精簡版,它等價(jià)于下面這個(gè)命令:

./darknet detector test cfg/coco.data cfg/yolo.cfg yolo.weights data/dog.jpg

如果你只是想在一幅圖像上進(jìn)行檢測的話,你不需要了解這些。但如果你想在攝像頭上進(jìn)行檢測的話,這個(gè)命令還是非常有用的。后面我們會(huì)講如何在攝像頭上進(jìn)行實(shí)時(shí)檢測。

多幅圖像

除了在命令行提供文件名進(jìn)行一幅圖像檢測以外,你也可以不輸入文件名,這樣就可以進(jìn)行多幅圖像檢測了。配置和權(quán)重文件加載完成后,系統(tǒng)會(huì)提示你輸入文件名:

./darknet detect cfg/yolo.cfg yolo.weights
layer     filters    size              input                output
    0 conv     32  3 x 3 / 1   416 x 416 x   3   ->   416 x 416 x  32
    1 max          2 x 2 / 2   416 x 416 x  32   ->   208 x 208 x  32
    .......
   29 conv    425  1 x 1 / 1    13 x  13 x1024   ->    13 x  13 x 425
   30 detection
Loading weights from yolo.weights ...Done!
Enter Image Path:

在這里輸入圖像文件名如data/horses.jpg就可以對(duì)這幅圖像進(jìn)行檢測。

檢測完成后系統(tǒng)會(huì)提示你輸入其它圖像的文件名。全部檢測完成后按下Ctrl-C來退出。

修改檢測閾值

缺省情況下,YOLO只顯示信心大于.25的對(duì)象。你可以通過附加-thresh 參數(shù)來修改這一設(shè)定。比如,你可以把閾值修改為0來顯示所有檢測到的對(duì)象:

./darknet detect cfg/yolo.cfg yolo.weights data/dog.jpg -thresh 0

結(jié)果如下:

這樣的結(jié)果似乎沒什么用,不過你可以通過修改為不同數(shù)值來控制模型檢測的結(jié)果。

Tiny YOLO

Tiny YOLO是基于Darknet參考網(wǎng)絡(luò)的非??焖俚珳?zhǔn)確率不如常規(guī)YOLO的模型。用法如下:

wget https://pjreddie.com/media/files/tiny-yolo-voc.weights
./darknet detector test cfg/voc.data cfg/tiny-yolo-voc.cfg tiny-yolo-voc.weights data/dog.jpg

這個(gè),呵呵,不完美(把白馬識(shí)別成綿羊了,把黑狗識(shí)別成奶牛了),但確實(shí)很快。在GPU版本上,它能處理超過200幀每秒的圖像。

攝像頭實(shí)時(shí)檢測

在測試數(shù)據(jù)上運(yùn)行YOLO沒什么意思,無法直接看到結(jié)果。下面我們讓它來直接處理攝像頭的輸入!

要運(yùn)行這個(gè)示例,你需要把DarknetCUDAOpenCV集成編譯,然后運(yùn)行以下命令:

./darknet detector demo cfg/coco.data cfg/yolo.cfg yolo.weights

YOLO顯示當(dāng)前幀率并在它檢測到的對(duì)象上加上方框。

你必須在電腦上安裝好攝像頭連接到OpenCV,否則沒法工作。如果你有多個(gè)攝像頭,可以通過-c 來指定其中之一(OpenCV缺省使用0號(hào)攝像頭)。

你也可以讓它對(duì)一段視頻進(jìn)行處理:

./darknet detector demo cfg/coco.data cfg/yolo.cfg yolo.weights 

下面這段Youtube視頻就是這么處理的:

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/19639.html

相關(guān)文章

  • 你的電腦學(xué)會(huì)同時(shí)識(shí)別多個(gè)物體

    摘要:工作原理以前的檢測系統(tǒng)通過重復(fù)利用分類器和定位器來實(shí)現(xiàn)目標(biāo)識(shí)別。修改檢測閾值缺省情況下,只顯示信心大于的對(duì)象。用法如下這個(gè),呵呵,不完美把白馬識(shí)別成綿羊了,把黑狗識(shí)別成奶牛了,但確實(shí)很快。 原標(biāo)題:YOLO: Real-Time Object Detection英文原文:https://pjreddie.com/darknet/... 強(qiáng)烈推薦(TED視頻):https://www....

    leap_frog 評(píng)論0 收藏0
  • 與百度首席科學(xué)家吳恩達(dá)對(duì)話中文背景下的神經(jīng)網(wǎng)絡(luò)

    摘要:等一下,什么樣的神經(jīng)網(wǎng)絡(luò)才算是小型的哈哈這不一定,會(huì)隨著時(shí)間改變。我們一般是依照神經(jīng)網(wǎng)絡(luò)之間的連接數(shù)劃分。訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的連接數(shù)量一般可以達(dá)到幾百億。許多語言學(xué)家對(duì)此表示強(qiáng)烈的不滿,甚至公開地向我表示反對(duì)。 在原文作者Caleb Garling對(duì)話吳恩達(dá)時(shí),他剛結(jié)束在舊金山的深度學(xué)習(xí)大會(huì),這名斯坦福深度學(xué)習(xí)教授,前Google Brain負(fù)責(zé)人,Coursera的創(chuàng)始人和現(xiàn)任百度首席科學(xué)家在...

    canopus4u 評(píng)論0 收藏0
  • 用不到1000美元攢一臺(tái)深度學(xué)習(xí)用的超快的電腦

    摘要:但是如果你和我是一樣的人,你想自己攢一臺(tái)奇快無比的深度學(xué)習(xí)的電腦??赡軐?duì)深度學(xué)習(xí)最重要的指標(biāo)就是顯卡的顯存大小。性能不錯(cuò),不過夠貴,都要美元以上,哪怕是舊一點(diǎn)的版本。電源我花了美元買了一個(gè)的電源。也可以安裝,這是一個(gè)不同的深度學(xué)習(xí)框架。 是的,你可以在一個(gè)39美元的樹莓派板子上運(yùn)行TensorFlow,你也可以在用一個(gè)裝配了GPU的亞馬遜EC2的節(jié)點(diǎn)上跑TensorFlow,價(jià)格是每小時(shí)1美...

    trigkit4 評(píng)論0 收藏0
  • SegmentFault 技術(shù)周刊 Vol.30 - 學(xué)習(xí) Python 來做一些神奇好玩的事情吧

    摘要:學(xué)習(xí)筆記七數(shù)學(xué)形態(tài)學(xué)關(guān)注的是圖像中的形狀,它提供了一些方法用于檢測形狀和改變形狀。學(xué)習(xí)筆記十一尺度不變特征變換,簡稱是圖像局部特征提取的現(xiàn)代方法基于區(qū)域圖像塊的分析。本文的目的是簡明扼要地說明的編碼機(jī)制,并給出一些建議。 showImg(https://segmentfault.com/img/bVRJbz?w=900&h=385); 前言 開始之前,我們先來看這樣一個(gè)提問: pyth...

    lifesimple 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<