摘要:研究將會(huì)出現(xiàn)在年的會(huì)議上,會(huì)議將于月在的舉辦。和大學(xué)的研究生證明,哈希技術(shù)是一種真實(shí)的數(shù)據(jù)索引方法,可以大大減少深度學(xué)習(xí)的計(jì)算消耗。深度學(xué)習(xí)網(wǎng)絡(luò)的基礎(chǔ)建造模塊是一個(gè)人造神經(jīng)元。據(jù)報(bào)道,谷歌正在嘗試訓(xùn)練一個(gè)擁有億個(gè)神經(jīng)元的網(wǎng)絡(luò)。
美國(guó)萊斯大學(xué)(Rice University )的計(jì)算機(jī)科學(xué)家通過使用被廣泛使用的快速數(shù)據(jù)查找技術(shù),以大幅度減少深度學(xué)習(xí)所必需的計(jì)算量,進(jìn)而大大地節(jié)約了能源和時(shí)間。
萊斯大學(xué)計(jì)算機(jī)科學(xué)家已經(jīng)采用了廣泛使用的快速數(shù)據(jù)查找技術(shù),以減少計(jì)算量,從而減少了深度學(xué)習(xí)所需的能量和時(shí)間,這是一種計(jì)算強(qiáng)大的機(jī)器學(xué)習(xí)形式。
“這能運(yùn)用到任何一種深度學(xué)習(xí)架構(gòu)中,并且,其技巧是亞線性擴(kuò)展的,也就是說,運(yùn)用的神經(jīng)網(wǎng)絡(luò)越大,能節(jié)省的計(jì)算資源就會(huì)越多”,萊斯大學(xué)計(jì)算機(jī)科學(xué)系助理教授、該研究的第一作者 Anshumali Shrivastava 介紹說。
研究將會(huì)出現(xiàn)在2017年的 KDD 會(huì)議上,會(huì)議將于8月在Nova Scotia的Halifax 舉辦。這一研究解決了谷歌、Facebook 和 微軟等這些爭(zhēng)先恐后地希望搭建、訓(xùn)練和部署大規(guī)模的深度神經(jīng)網(wǎng)絡(luò)的科技巨頭最緊迫的需求之一。它們希望用深度學(xué)習(xí)來滿足越來越多的產(chǎn)品需求,如自動(dòng)駕駛汽車,語言翻譯和智能回復(fù)電子郵件等。
Shrivastava和 Rice 大學(xué)的研究生 Ryan Spring 證明,“哈?!保℉ashing)技術(shù)是一種真實(shí)的數(shù)據(jù)索引方法,可以大大減少深度學(xué)習(xí)的計(jì)算消耗。“哈?!?涉及使用智能散列函數(shù)將數(shù)據(jù)轉(zhuǎn)換為可管理的小數(shù),稱為哈希。哈希被存儲(chǔ)在表格中,其運(yùn)行方式就好像紙質(zhì)書中的索引。
“我們的方法混合了兩種技術(shù):一個(gè)局部敏感哈希 clever 變量,以及一個(gè)稀疏的反向傳播。這樣就能在不大量地降低準(zhǔn)確率的情況下,減少必要的計(jì)算消耗。Spring 說,“比如,在小規(guī)模的測(cè)試中,我們發(fā)現(xiàn)在標(biāo)準(zhǔn)方法下,能在準(zhǔn)確率損失控制在1%的情況下,將計(jì)算能耗減少95%?!?/p>
深度學(xué)習(xí)網(wǎng)絡(luò)的基礎(chǔ)建造模塊是一個(gè)人造神經(jīng)元。雖然1950年代,生物神經(jīng)元的首先被發(fā)現(xiàn),但是,人造神經(jīng)元只是一個(gè)數(shù)學(xué)函數(shù)和等式,建立在大量的數(shù)據(jù)之上,可以轉(zhuǎn)化為輸出。
在機(jī)器學(xué)習(xí)中,所有的神經(jīng)元都從一張白紙的“空”狀態(tài)開始,在訓(xùn)練過程中變得特異化(specialized)。在訓(xùn)練期間,網(wǎng)絡(luò)被“給予”大量數(shù)據(jù),每個(gè)神經(jīng)元都成為識(shí)別數(shù)據(jù)中特定模式的專家。在較低層,神經(jīng)元執(zhí)行最簡(jiǎn)單的任務(wù)。例如,在照片識(shí)別應(yīng)用中,低級(jí)神經(jīng)元可能識(shí)別來自暗處的光線或物體的邊緣。這些神經(jīng)元的輸出被傳遞到網(wǎng)絡(luò)下一層的神經(jīng)元中,這些神經(jīng)元又會(huì)以其特有的方式搜索它們會(huì)識(shí)別的特征。
只有幾層的神經(jīng)網(wǎng)絡(luò)就可以學(xué)習(xí)識(shí)別人臉、各種犬類、停車標(biāo)志和校車。
Shrivastava 說:“向網(wǎng)絡(luò)的每層增加更多的神經(jīng)元可以增強(qiáng)其表現(xiàn)力(expressive power),而且我們想要網(wǎng)絡(luò)有多大這一點(diǎn)沒有上限?!?/p>
據(jù)報(bào)道,谷歌正在嘗試訓(xùn)練一個(gè)擁有 1370 億個(gè)神經(jīng)元的網(wǎng)絡(luò)。相比之下,訓(xùn)練和部署這樣的網(wǎng)絡(luò)需要的計(jì)算力是有限的。
Shrivastava 說,目前使用的大多數(shù)機(jī)器學(xué)習(xí)算法都是 30 到 50 年前開發(fā)的,在設(shè)計(jì)的時(shí)候沒有考慮到計(jì)算的復(fù)雜性。但是,有了大數(shù)據(jù)之后,對(duì)于計(jì)算周期、能源和內(nèi)存等資源來說,就存在著基本的限制,而“我們的實(shí)驗(yàn)室側(cè)重于解決這些限制?!?/p>
Spring 表示,在大規(guī)模深度網(wǎng)絡(luò)中,hashing 帶來的計(jì)算和節(jié)能將會(huì)更大。
Spring 說,由于他們利用大數(shù)據(jù)中固有的稀疏性,因此能量的節(jié)省會(huì)隨著網(wǎng)絡(luò)規(guī)模的增加而增加。“假設(shè)一個(gè)深度網(wǎng)絡(luò)有 10 億個(gè)神經(jīng)元,對(duì)于任何一個(gè)給定輸入——例如一張狗的圖片——只有少部分神經(jīng)元會(huì)被激活。
在數(shù)據(jù)科學(xué)的術(shù)語中,這就叫做稀疏性(sparsity),而正因?yàn)橛辛讼∈栊裕麄兊姆椒ü?jié)省的能量會(huì)隨著網(wǎng)絡(luò)規(guī)模的擴(kuò)大而增加。
“所以,1000 個(gè)神經(jīng)元的網(wǎng)絡(luò)我們能節(jié)能 95%,根據(jù)數(shù)學(xué)推導(dǎo),10 億個(gè)神經(jīng)元的網(wǎng)絡(luò)我們就能節(jié)能 99%?!?/p>
原文:https://phys.org/news/2017-06-scientists-slash-deep.html#jCp
Ryan Spring (左) 和 Anshumali Shrivastava.
通過隨機(jī)哈希實(shí)現(xiàn)可擴(kuò)展、可持續(xù)的深度學(xué)習(xí)
這篇論文《通過隨機(jī)哈希實(shí)現(xiàn)可擴(kuò)展、可持續(xù)的深度學(xué)習(xí)》(Scalable and Sustainable Deep Learning via Randomized Hashing),已經(jīng)作為 Oral 被 KDD 2017 接收。
雖然論文的同行評(píng)議版本要到 KDD 召開時(shí)才能得知,通過網(wǎng)上的資料,我們可以看到去年底 Spring 在 arXiv 上傳的論文預(yù)印版(地址:https://arxiv.org/pdf/1602.08194.pdf)。
為了從復(fù)雜的數(shù)據(jù)集中學(xué)習(xí),當(dāng)前深度學(xué)習(xí)框架越來越大。這些框架需要進(jìn)行巨大的矩陣乘法運(yùn)算來訓(xùn)練數(shù)百萬個(gè)參數(shù)。與此相反,另一個(gè)呈增長(zhǎng)的趨勢(shì)是將深度學(xué)習(xí)帶入低功耗、嵌入式設(shè)備。為了訓(xùn)練和測(cè)試深度網(wǎng)絡(luò)而進(jìn)行的相關(guān)矩陣運(yùn)算,從計(jì)算和能量消耗的角度看是非常昂貴的。我們提出了一種基于 Hashing 的新技術(shù),大幅減少了訓(xùn)練和測(cè)試神經(jīng)網(wǎng)絡(luò)所需的計(jì)算量。我們的方法結(jié)合了最近提出的兩大概念,即自適應(yīng) dropout 和較大內(nèi)部搜索(MIPS)隨機(jī) Hashing,有效選擇網(wǎng)絡(luò)中具有較高激活的節(jié)點(diǎn)。
這一新深度學(xué)習(xí)算法通過在(數(shù)量明顯更少的)稀疏節(jié)點(diǎn)上運(yùn)行,減少前向和后向傳播步驟的總體計(jì)算成本。因此,我們的算法在保持原始模型平均精度 1% 的同時(shí),僅使用總乘法的 5%。
論文提出的基于 Hashing 的反向傳播算法,一個(gè)獨(dú)特屬性是 update 總是稀疏的。而由于稀疏梯度 update,我們的算法非常適合異構(gòu)和并行訓(xùn)練。通過在幾個(gè)真實(shí)數(shù)據(jù)集上進(jìn)行嚴(yán)格的實(shí)驗(yàn)評(píng)估,我們證明了提出的算法具有可擴(kuò)展性和可持續(xù)性(能量效率高)。
神經(jīng)網(wǎng)絡(luò)進(jìn)行隨機(jī)哈希的視覺展示
圖1:從圖中可見,神經(jīng)網(wǎng)絡(luò) Low-Rank 假設(shè)需要的參數(shù)數(shù)量自然會(huì)更少
圖2:對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行隨機(jī)哈希的視覺展示。① 建一個(gè)哈希表,方法是對(duì)每個(gè)隱藏層(一次迭代)的權(quán)重做哈希。② 使用該層的隨機(jī)哈希函數(shù)對(duì)該層的輸入做哈希。③ 查詢這一層的哈希表,獲取激活數(shù)據(jù)集 AS。④ 僅在激活神經(jīng)元上做前向和后向傳播。⑤ 更新 AS 權(quán)重和哈希表。
56 核的英特爾 Xeon ES-2697 處理器上的性能比較
圖7:一個(gè)標(biāo)準(zhǔn)網(wǎng)絡(luò)使用我們的方法(隨機(jī)哈希)和使用異構(gòu)隨機(jī)梯度下降,在 56 核的英特爾 Xeon ES-2697 處理器上的性能比較。我們依次在 MNIST、NORB、Convex 和 Rectangles 數(shù)據(jù)集上進(jìn)行了測(cè)試。所有網(wǎng)絡(luò)的初始值都是一樣的。
圖8:新方法(LSH-5%)使用異構(gòu)隨機(jī)梯度下降每步(per epoch)獲得的掛鐘時(shí)間。我們用一個(gè)有 3 層隱藏層的網(wǎng)絡(luò),依次在 MNIST、NORB、Convex 和 Rectangles 數(shù)據(jù)集上進(jìn)行了測(cè)試。Convex 和 Rectangles 數(shù)據(jù)集上增量較少,是因?yàn)樵谡麄€(gè)過程中可用的訓(xùn)練樣本不夠多。實(shí)驗(yàn)中只使用了 5% 的標(biāo)準(zhǔn)網(wǎng)絡(luò)計(jì)算量。
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/4551.html
摘要:和的得分均未超過右遺傳算法在也表現(xiàn)得很好。深度遺傳算法成功演化了有著萬自由參數(shù)的網(wǎng)絡(luò),這是通過一個(gè)傳統(tǒng)的進(jìn)化算法演化的較大的神經(jīng)網(wǎng)絡(luò)。 Uber 涉及領(lǐng)域廣泛,其中許多領(lǐng)域都可以利用機(jī)器學(xué)習(xí)改進(jìn)其運(yùn)作。開發(fā)包括神經(jīng)進(jìn)化在內(nèi)的各種有力的學(xué)習(xí)方法將幫助 Uber 發(fā)展更安全、更可靠的運(yùn)輸方案。遺傳算法——訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)的有力競(jìng)爭(zhēng)者我們驚訝地發(fā)現(xiàn),通過使用我們發(fā)明的一種新技術(shù)來高效演化 DNN,...
摘要:毫無疑問,深度學(xué)習(xí)將驅(qū)動(dòng)在公司中的應(yīng)用。在其價(jià)值評(píng)估和策略評(píng)估上使用的就是深度學(xué)習(xí)。端到端的深度學(xué)習(xí)是一個(gè)令人著迷的研究領(lǐng)域,但是迄今為止混合系統(tǒng)在應(yīng)用領(lǐng)域會(huì)更有效率。目前專注于深度學(xué)習(xí)模式,方法和戰(zhàn)略的研究。 在之前的博客中,我曾預(yù)言過未來幾年的發(fā)展趨勢(shì)。我記得上一篇博客的內(nèi)容是《2011年軟件開發(fā)趨勢(shì)和相關(guān)預(yù)言》(Software DevelopmentTrends and Predic...
摘要:卷積神經(jīng)網(wǎng)絡(luò)原理淺析卷積神經(jīng)網(wǎng)絡(luò),最初是為解決圖像識(shí)別等問題設(shè)計(jì)的,當(dāng)然其現(xiàn)在的應(yīng)用不僅限于圖像和視頻,也可用于時(shí)間序列信號(hào),比如音頻信號(hào)文本數(shù)據(jù)等。卷積神經(jīng)網(wǎng)絡(luò)的概念最早出自世紀(jì)年代科學(xué)家提出的感受野。 卷積神經(jīng)網(wǎng)絡(luò)原理淺析 ?卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?Neural?Network,CNN)最初是為解決圖像識(shí)別等問題設(shè)計(jì)的,當(dāng)然其現(xiàn)在的應(yīng)用不僅限于圖像和視頻,也可用于時(shí)間序...
摘要:在學(xué)習(xí)過程中,神經(jīng)網(wǎng)絡(luò)的突觸權(quán)重會(huì)以一種有序的方式進(jìn)行修改,從而實(shí)現(xiàn)所需的目標(biāo)。中間單元的數(shù)量被稱為網(wǎng)絡(luò)所用的片的數(shù)量。 隨著神經(jīng)網(wǎng)絡(luò)的進(jìn)化,許多過去曾被認(rèn)為不可想象的任務(wù)現(xiàn)在也能夠被完成了。圖像識(shí)別、語音識(shí)別、尋找數(shù)據(jù)集中的深度關(guān)系等任務(wù)現(xiàn)在已經(jīng)變得遠(yuǎn)遠(yuǎn)更加簡(jiǎn)單了。在此向這一領(lǐng)域的杰出的研究者致以真誠(chéng)的謝意,正是他們的發(fā)現(xiàn)和成果幫助我們利用上了神經(jīng)網(wǎng)絡(luò)的真正力量。如果你真正對(duì)追求機(jī)器學(xué)習(xí)這...
摘要:前言阿里巴巴機(jī)器智能實(shí)驗(yàn)室線下智能團(tuán)隊(duì)從年底開始涉及線下智能領(lǐng)域,從算法工程產(chǎn)品化業(yè)務(wù)落地多個(gè)方面入手,與合作伙伴們一起取得了一些小小的成績(jī)。目前,該套工具作為推薦的量化工具廣泛應(yīng)用在阿里集團(tuán)內(nèi)多個(gè)線下業(yè)務(wù)場(chǎng)景中。 showImg(https://segmentfault.com/img/remote/1460000019246850); 阿里妹導(dǎo)讀:AI 技術(shù)已經(jīng)從互聯(lián)網(wǎng)走向零售、...
閱讀 3288·2021-11-25 09:43
閱讀 3285·2021-11-23 09:51
閱讀 3576·2019-08-30 13:08
閱讀 1631·2019-08-29 12:48
閱讀 3650·2019-08-29 12:26
閱讀 454·2019-08-28 18:16
閱讀 2620·2019-08-26 13:45
閱讀 2482·2019-08-26 12:15