亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

深度學(xué)習(xí)三大硬件+四大學(xué)習(xí)庫(kù)基準(zhǔn)測(cè)試對(duì)比,指標(biāo)全面呈現(xiàn)

YacaToy / 3827人閱讀

摘要:基準(zhǔn)測(cè)試我們比較了和三款,使用的深度學(xué)習(xí)庫(kù)是和,深度學(xué)習(xí)網(wǎng)絡(luò)是和。深度學(xué)習(xí)庫(kù)基準(zhǔn)測(cè)試同樣,所有基準(zhǔn)測(cè)試都使用位系統(tǒng),每個(gè)結(jié)果是次迭代計(jì)算的平均時(shí)間。

購(gòu)買用于運(yùn)行深度學(xué)習(xí)算法的硬件時(shí),我們常常找不到任何有用的基準(zhǔn),的選擇是買一個(gè)GPU然后用它來(lái)測(cè)試?,F(xiàn)在市面上性能較好的GPU幾乎都來(lái)自英偉達(dá),但其中也有很多選擇:是買一個(gè)新出的TITAN X Pascal還是便宜些的TITAN X Maxwell,又或是GTX 1080?本文中我們對(duì)幾個(gè)最常見(jiàn)的英偉達(dá)GPU以及最常用的一些深度學(xué)習(xí)算法進(jìn)行了基準(zhǔn)測(cè)試。軟件方面,我們比較了最近發(fā)布的四個(gè)開(kāi)源深度學(xué)習(xí)庫(kù):Tensorflow v0.10.0、Neon v1.6.0、Caffe rc3以及caffe的英偉達(dá)版本NVcaffe v0.15.10。

GPU基準(zhǔn)測(cè)試:GeForce GTX 1080 vs Titan X(Maxwell) vs Titan X (Pascal)

我們比較了GeForce GTX 1080、Titan X Maxwell和Titan X Pascal三款GPU,使用的深度學(xué)習(xí)庫(kù)是Neon、Tensorflow和Caffe,深度學(xué)習(xí)網(wǎng)絡(luò)是AlexNet、GoogleNet、OverFeat和VGG-A。

?

所有基準(zhǔn)測(cè)試都使用64位系統(tǒng),每個(gè)結(jié)果是100次迭代計(jì)算的平均時(shí)間。

基于庫(kù)的測(cè)試結(jié)果

訓(xùn)練基準(zhǔn)測(cè)試

使用四種庫(kù)(Tensorflow,NVcaffe,Caffe,Neon)進(jìn)行一次前向迭代和反向迭代的總時(shí)間[ms](越少越好)。結(jié)果如下:

?

推論基準(zhǔn)測(cè)試

使用四種庫(kù)(Tensorflow,NVcaffe,Caffe,Neon)進(jìn)行一次前向迭代的總時(shí)間[ms](越少越好)。結(jié)果如下:

基于神經(jīng)網(wǎng)絡(luò)的測(cè)試結(jié)果

?

訓(xùn)練基準(zhǔn)測(cè)試

使用四種神經(jīng)網(wǎng)絡(luò)(VGG-A, OverFeat,AlexNet, GoogLeNet)進(jìn)行一次前向迭代和反向迭代的總時(shí)間(越少越好)。結(jié)果如下:

?

推論基準(zhǔn)測(cè)試

使用四種神經(jīng)網(wǎng)絡(luò)(VGG-A, OverFeat,AlexNet, GoogLeNet)進(jìn)行一次前向迭代的總時(shí)間(越少越好)。結(jié)果如下:

配置

基準(zhǔn)測(cè)試工具

在Neon上進(jìn)行基準(zhǔn)測(cè)試使用的是neon庫(kù)中的腳本neon/tests/run_benchmarks.py,在Tensorflow上使用的是convnet-benchmarks和不加修改的腳本convnet-benchmarks/tensorflow/benchmark_alexnet.py, convnet-benchmarks/tensorflow/benchmark_googlnet.py, convnet-benchmarks/tensorflow/benchmark_overfeat.py 以及 convnet-benchmarks/tensorflow/benchmark_vgg.py。Caffe使用的也是convnet-benchmarks,但對(duì)腳本convnet-benchmarks/caffe/run_imagenet.sh作了修改以指向我們的caffe安裝。

深度學(xué)習(xí)庫(kù)基準(zhǔn)測(cè)試:Caffe vs Neon vsNVcaffe vs Tensorflow

同樣,所有基準(zhǔn)測(cè)試都使用64位系統(tǒng),每個(gè)結(jié)果是100次迭代計(jì)算的平均時(shí)間。

?

基于GPU的測(cè)試結(jié)果

?

訓(xùn)練基準(zhǔn)測(cè)試

使用四種GPU(Titan X Pascal, Titan X Maxwell, GeForce GTX 1080)進(jìn)行一次前向迭代和反向迭代的總時(shí)間(越少越好)。結(jié)果如下:

推論基準(zhǔn)測(cè)試

使用四種GPU(Titan X Pascal, Titan X Maxwell, GeForce GTX 1080)進(jìn)行一次前向迭代的總時(shí)間(越少越好)。結(jié)果如下:

基于神經(jīng)網(wǎng)絡(luò)的測(cè)試結(jié)果

訓(xùn)練基準(zhǔn)測(cè)試

使用四種神經(jīng)網(wǎng)絡(luò)(VGG-A, OverFeat,AlexNet, GoogLeNet)進(jìn)行一次前向迭代和反向迭代的總時(shí)間(越少越好)。結(jié)果如下:

推論基準(zhǔn)測(cè)試

使用四種神經(jīng)網(wǎng)絡(luò)(VGG-A, OverFeat, AlexNet,GoogLeNet)進(jìn)行一次前向迭代的總時(shí)間(越少越好)。結(jié)果如下:

?

配置

基準(zhǔn)測(cè)試工具

?

在Neon上進(jìn)行基準(zhǔn)測(cè)試使用的是neon庫(kù)中的腳本neon/tests/run_benchmarks.py,在Tensorflow上使用的是convnet-benchmarks和不加修改的腳本convnet-benchmarks/tensorflow/benchmark_alexnet.py, convnet-benchmarks/tensorflow/benchmark_googlnet.py, convnet-benchmarks/tensorflow/benchmark_overfeat.py 以及 convnet-benchmarks/tensorflow/benchmark_vgg.py。Caffe使用的也是convnet-benchmarks,但對(duì)腳本convnet-benchmarks/caffe/run_imagenet.sh作了修改以指向我們的caffe安裝。

歡迎加入本站公開(kāi)興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/4411.html

相關(guān)文章

  • 深度神經(jīng)網(wǎng)絡(luò)全面概述:從基本概念到實(shí)際模型和硬件基礎(chǔ)

    摘要:深度神經(jīng)網(wǎng)絡(luò)所代表的人工智能技術(shù)被認(rèn)為是這一次技術(shù)變革的基石之一。導(dǎo)語(yǔ)深度神經(jīng)網(wǎng)絡(luò)目前是許多人工智能應(yīng)用的基礎(chǔ)。深度神經(jīng)網(wǎng)絡(luò)概述根據(jù)應(yīng)用情況不同,深度神經(jīng)網(wǎng)絡(luò)的形態(tài)和大小也各異。 深度神經(jīng)網(wǎng)絡(luò)(DNN)所代表的人工智能技術(shù)被認(rèn)為是這一次技術(shù)變革的基石(之一)。近日,由 IEEE Fellow Joel Emer 領(lǐng)導(dǎo)的一個(gè)團(tuán)隊(duì)發(fā)布了一篇題為《深度神經(jīng)網(wǎng)絡(luò)的有效處理:教程和調(diào)研(Efficie...

    Sanchi 評(píng)論0 收藏0
  • 基準(zhǔn)評(píng)測(cè)TensorFlow、Caffe等在三類流行深度神經(jīng)網(wǎng)絡(luò)上的表現(xiàn)

    摘要:在兩個(gè)平臺(tái)三個(gè)平臺(tái)下,比較這五個(gè)深度學(xué)習(xí)庫(kù)在三類流行深度神經(jīng)網(wǎng)絡(luò)上的性能表現(xiàn)。深度學(xué)習(xí)的成功,歸因于許多層人工神經(jīng)元對(duì)輸入數(shù)據(jù)的高表征能力。在年月,官方報(bào)道了一個(gè)基準(zhǔn)性能測(cè)試結(jié)果,針對(duì)一個(gè)層全連接神經(jīng)網(wǎng)絡(luò),與和對(duì)比,速度要快上倍。 在2016年推出深度學(xué)習(xí)工具評(píng)測(cè)的褚曉文團(tuán)隊(duì),趕在猴年最后一天,在arXiv.org上發(fā)布了的評(píng)測(cè)版本。這份評(píng)測(cè)的初版,通過(guò)國(guó)內(nèi)AI自媒體的傳播,在國(guó)內(nèi)業(yè)界影響很...

    canopus4u 評(píng)論0 收藏0
  • 深度學(xué)習(xí)這么多年還不會(huì)挑GPU?這兒有份選購(gòu)全攻略

    摘要:深度學(xué)習(xí)是一個(gè)對(duì)算力要求很高的領(lǐng)域。這一早期優(yōu)勢(shì)與英偉達(dá)強(qiáng)大的社區(qū)支持相結(jié)合,迅速增加了社區(qū)的規(guī)模。對(duì)他們的深度學(xué)習(xí)軟件投入很少,因此不能指望英偉達(dá)和之間的軟件差距將在未來(lái)縮小。 深度學(xué)習(xí)是一個(gè)對(duì)算力要求很高的領(lǐng)域。GPU的選擇將從根本上決定你的深度學(xué)習(xí)體驗(yàn)。一個(gè)好的GPU可以讓你快速獲得實(shí)踐經(jīng)驗(yàn),而這些經(jīng)驗(yàn)是正是建立專業(yè)知識(shí)的關(guān)鍵。如果沒(méi)有這種快速的反饋,你會(huì)花費(fèi)過(guò)多時(shí)間,從錯(cuò)誤中吸取教訓(xùn)...

    JohnLui 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

閱讀需要支付1元查看
<