亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

舉個卡戴珊的例子,講講Hinton的Capsule是怎么回事

Big_fat_cat / 1720人閱讀

摘要:傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的問題到目前為止,圖像分類問題上較先進(jìn)的方法是。我們把卡戴珊姐姐旋轉(zhuǎn)出現(xiàn)這個問題的原因,用行話來說是旋轉(zhuǎn)的程度超出了較大池化所帶來的旋轉(zhuǎn)不變性的限度。

Capsule Networks,或者說CapsNet,這個名字你應(yīng)該已經(jīng)聽過好幾次了。

這是“深度學(xué)習(xí)之父”的Geoffrey Hinton近幾年一直在探索的領(lǐng)域,被視為突破性的新概念。最近,關(guān)于Capsule的論文終于公布了。

一篇即將發(fā)表于NIPS 2017:

Dynamic Routing Between Capsules

作者:Sara Sabour, Nicholas Frosst, Geoffrey E Hinton

https://arxiv.org/abs/1710.09829v2

另一篇是ICLR 2018正在匿名評審的:

Matrix capsules with EM routing

作者目前未知

https://openreview.net/pdf?id=HJWLfGWRb

要理解Capsule Networks,還得從卷積神經(jīng)網(wǎng)絡(luò)(CNN)的特性說起。

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的問題

到目前為止,圖像分類問題上較先進(jìn)的方法是CNN。

而CNN的工作原理,是將每一層對應(yīng)的特征累積起來,從尋找邊緣開始,然后是形狀、再識別實際的對象。

然而,在這個過程中,所有這些特征的空間關(guān)系信息丟失了。

雖然可能有點(diǎn)過度簡化了,不過我們可以把CNN看做這樣一個程序:

if (2 eyes && 1 nose && 1 mouth) {

? It"s a face!

}

翻譯成人話就是:如果有兩只眼睛、一個鼻子、一張嘴,它就是一張臉!

一般人看見這個表述,第一反應(yīng)大概是挺好的啊,有道理,沒毛病~

對,有道理,不過我們需要轉(zhuǎn)念想一想:這個表述還是有問題的。不信?看一張略恐怖的卡戴珊姐姐照片:

確實是兩只眼睛一個鼻子一張嘴吧?

但我等人類都一眼就能看出來,這張照片不對勁??!眼睛和嘴錯位了?。∪瞬粦?yīng)該長這樣!識別成鬼還差不多……

可是呢,CNN會認(rèn)為,眼睛和嘴的位置不管在哪,都沒什么區(qū)別,會很寬容地,把這張照片歸類成“人”:

除了對人類五官的位置過于寬容之外,CNN還有還有一個毛病,就是對圖片的角度要求有點(diǎn)苛刻,它能容忍照片稍微旋轉(zhuǎn)一些,但要是旋轉(zhuǎn)太多,它就不認(rèn)得了。

我們把卡戴珊姐姐旋轉(zhuǎn)180°:

出現(xiàn)這個問題的原因,用行話來說是旋轉(zhuǎn)的程度超出了較大池化(maxpooling)所帶來的旋轉(zhuǎn)不變性(invariance)的限度。這其實有辦法解決,就是在訓(xùn)練中用上各種可能角度的圖片,行話叫做data augmentation。不過,這種做法實在是耗時費(fèi)力。

另外,CNN還很容易受到白盒對抗性攻擊(adversarial attacks)的影響,在圖片上悄悄藏一些圖案,就能讓CNN把它誤認(rèn)作別的東西。

谷歌的神經(jīng)網(wǎng)絡(luò)把海龜誤認(rèn)成步槍,就是這個毛?。?/p>

所以Hinton老爺子才會覺得CNN不行。(Hinton真的很嚴(yán)格)

Capsule Networks前來救援!

CapsNet架構(gòu)

Capsule Networks就能讓我們充分利用空間關(guān)系,看到更多東西。在認(rèn)人臉這件事上,可以這么表示:

if (2 adjacent eyes && nose under eyes && mouth under nose) {

? It"s a face!

}

翻譯成人話:如果有兩只相鄰的眼睛、眼睛下有一個鼻子、鼻子下有一張嘴,它就是一張臉。

你應(yīng)該能看出來,這樣來定義,神經(jīng)網(wǎng)絡(luò)就不會把畸形版卡戴珊姐姐也認(rèn)作人臉了。

這種新架構(gòu)還更善于從不同角度來識別形狀,它在下面這個數(shù)據(jù)集上,可以獲得更高的精度。這個精心設(shè)計的數(shù)據(jù)集就是用來進(jìn)行單純的形狀識別,甚至是從不同的角度識別的。Capsule Networks擊敗了較先進(jìn)的CNN,將錯誤數(shù)量減少了45%。

CapsNet把第二行圖片識別為第一行同類圖片的能力遠(yuǎn)超CNN

此外,最近發(fā)布的論文表明,與卷積神經(jīng)網(wǎng)絡(luò)相比,Capsules對白盒對抗性攻擊顯示出更大的抵抗力。

訓(xùn)練CapsNet

重點(diǎn)來了:要想理解一篇論文,較好的方法是把它實現(xiàn)出來。

Bourdakos基于Hinton的論文,寫出了一份CapsNet的TensorFlow實現(xiàn)

代碼:https://github.com/bourdakos1/capsule-networks

接下來的內(nèi)容,就是要介紹如何訓(xùn)練它。

下面以如何在MNIST數(shù)據(jù)集上訓(xùn)練模型為例。這是一個著名的手寫數(shù)字的數(shù)據(jù)集,是測試機(jī)器學(xué)習(xí)算法的良好基準(zhǔn)。

首先從克隆repo開始:

git clone https://github.com/bourdakos1/capsule-networks.git

然后安裝需求。

pip install -r requirements.txt

開始訓(xùn)練!

python main.py

MNIST數(shù)據(jù)集有6萬個訓(xùn)練圖像。默認(rèn)情況下,模型將以128的batch size訓(xùn)練50個epoch周期。一個epoch代表訓(xùn)練集的一次完整運(yùn)行。由于batch size是128,所以每個epoch大約有468個batch。

注意:如果你沒有GPU,訓(xùn)練可能需要很長的時間。

推理

一旦模型完整訓(xùn)練過,就可以通過以下命令來測試:

python main.py --is_training False

結(jié)論

Capsule Networks似乎很棒,但仍在嬰兒期,在訓(xùn)練大型數(shù)據(jù)集時可能遇到一些問題,但信心還是要有的。

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/4676.html

相關(guān)文章

  • 膠囊 (向量神經(jīng)) 網(wǎng)絡(luò)

    斯蒂文認(rèn)為機(jī)器學(xué)習(xí)有時候像嬰兒學(xué)習(xí),特別是在物體識別上。比如嬰兒首先學(xué)會識別邊界和顏色,然后將這些信息用于識別形狀和圖形等更復(fù)雜的實體。比如在人臉識別上,他們學(xué)會從眼睛和嘴巴開始識別最終到整個面孔。當(dāng)他們看一個人的形象時,他們大腦認(rèn)出了兩只眼睛,一只鼻子和一只嘴巴,當(dāng)認(rèn)出所有這些存在于臉上的實體,并且覺得這看起來像一個人。斯蒂文首先給他的女兒悠悠看了以下圖片,看她是否能自己學(xué)會認(rèn)識圖中的人(金·卡...

    codercao 評論0 收藏0
  • 淺析 Hinton 最近提出 Capsule 計劃

    摘要:近幾年以卷積神經(jīng)網(wǎng)絡(luò)有什么問題為主題做了多場報道,提出了他的計劃。最初提出就成為了人工智能火熱的研究方向。展現(xiàn)了和玻爾茲曼分布間驚人的聯(lián)系其在論文中多次稱,其背后的內(nèi)涵引人遐想。 Hinton 以深度學(xué)習(xí)之父 和 神經(jīng)網(wǎng)絡(luò)先驅(qū) 聞名于世,其對深度學(xué)習(xí)及神經(jīng)網(wǎng)絡(luò)的諸多核心算法和結(jié)構(gòu)(包括深度學(xué)習(xí)這個名稱本身,反向傳播算法,受限玻爾茲曼機(jī),深度置信網(wǎng)絡(luò),對比散度算法,ReLU激活單元,Dropo...

    Donald 評論0 收藏0
  • 揭開迷霧,來一頓美味Capsule」盛宴 | 附代碼實現(xiàn) + 全新實驗

    摘要:本文試圖揭開讓人迷惘的云霧,領(lǐng)悟背后的原理和魅力,品嘗這一頓盛宴。當(dāng)然,激活函數(shù)本身很簡單,比如一個激活的全連接層,用寫起來就是可是,如果我想用的反函數(shù)來激活呢也就是說,你得給我解出,然后再用它來做激活函數(shù)。 由深度學(xué)習(xí)先驅(qū) Hinton 開源的 Capsule 論文 Dynamic Routing Between Capsules,無疑是去年深度學(xué)習(xí)界最熱點(diǎn)的消息之一。得益于各種媒體的各種...

    NSFish 評論0 收藏0
  • 【一文讀懂Hinton最新Capsules論文】CNN 未來向何處去

    摘要:未來向何處去做領(lǐng)袖不容易,要不斷地指明方向。又譬如想識別在這些黑白圖像中,是否包含從到的手寫體數(shù)字,那么深度學(xué)習(xí)的傳統(tǒng)做法是,輸出一個維向量,,其中每個元素的取值范圍是,表示出現(xiàn)相應(yīng)數(shù)字的概率。老爺子的論文中,輸出的是十個維向量,其中。 CNN 未來向何處去?做領(lǐng)袖不容易,要不斷地指明方向。所謂正確的方向,不僅前途要輝煌,而且道路要盡可能順暢。Geoffrey Hinton 是深度學(xué)習(xí)領(lǐng)域的...

    renweihub 評論0 收藏0
  • Geoffrey Hinton:放棄反向傳播,我們人工智能需要重頭再來

    摘要:論文鏈接會上其他科學(xué)家認(rèn)為反向傳播在人工智能的未來仍然起到關(guān)鍵作用。既然要從頭再來,的下一步是什么值得一提的是,與他的谷歌同事和共同完成的論文已被大會接收。 三十多年前,深度學(xué)習(xí)著名學(xué)者 Geoffrey Hinton 參與完成了論文《Experiments on Learning by Back Propagation》,提出了反向傳播這一深刻影響人工智能領(lǐng)域的方法。今天的他又一次呼吁研究...

    mykurisu 評論0 收藏0

發(fā)表評論

0條評論

Big_fat_cat

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<