摘要:一維卷積常用于序列模型,自然語(yǔ)言處理領(lǐng)域。三維卷積這里采用代數(shù)的方式對(duì)三維卷積進(jìn)行介紹,具體思想與一維卷積二維卷積相同。
由于計(jì)算機(jī)視覺(jué)的大紅大紫,二維卷積的用處范圍最廣。因此本文首先介紹二維卷積,之后再介紹一維卷積與三維卷積的具體流程,并描述其各自的具體應(yīng)用。
1、二維卷積
?? ? 圖中的輸入的數(shù)據(jù)維度為 14 × 14 ,過(guò)濾器大小為 5 × 5,二者做卷積,輸出的數(shù)據(jù)維度為 10 × 10( 14 ? 5 + 1 = 10 )。
?? ? 上述內(nèi)容沒(méi)有引入channel的概念,也可以說(shuō)channel的數(shù)量為1。如果將二維卷積中輸入的channel的數(shù)量變?yōu)?,即輸入的數(shù)據(jù)維度變?yōu)椋?4 × 14 × 3)。由于卷積操作中過(guò)濾器的 channel 數(shù)量必須與輸入數(shù)據(jù)的channel數(shù)量相同,過(guò)濾器大小也變?yōu)?5 × 5 × 3 。在卷積的過(guò)程中,過(guò)濾器與數(shù)據(jù)在 channel 方向分別卷積,之后將卷積后的數(shù)值相加,即執(zhí)行 10 × 10 次3個(gè)數(shù)值相加的操作,最終輸出的數(shù)據(jù)維度為 10 × 10 。
?? ? 以上都是在過(guò)濾器數(shù)量為1的情況下所進(jìn)行的討論。如果將過(guò)濾器的數(shù)量增加至16,即16個(gè)大小為10 × 10 × 3 的過(guò)濾器,最終輸出的數(shù)據(jù)維度就變?yōu)?0 × 10 × 16 ??梢岳斫鉃榉謩e執(zhí)行每個(gè)過(guò)濾器的卷積操作,最后將每個(gè)卷積的輸出在第三個(gè)維度(channel 維度)上進(jìn)行拼接。
?? ? 二維卷積常用于計(jì)算機(jī)視覺(jué)、圖像處理領(lǐng)域。
2、一維卷積
?? ? 圖中的輸入的數(shù)據(jù)維度為8,過(guò)濾器的維度為5。與二維卷積類(lèi)似,卷積后輸出的數(shù)據(jù)維度為8?5+1=48?5+1=4。
?? ? 如果過(guò)濾器數(shù)量仍為1,輸入數(shù)據(jù)的channel數(shù)量變?yōu)?6,即輸入數(shù)據(jù)維度為 8 × 16 。這里channel的概念相當(dāng)于自然語(yǔ)言處理中的embedding,而該輸入數(shù)據(jù)代表8個(gè)單詞,其中每個(gè)單詞的詞向量維度大小為16。在這種情況下,過(guò)濾器的維度由5變?yōu)?5 × 16 ,最終輸出的數(shù)據(jù)維度仍為 4 。
?? ? 如果過(guò)濾器數(shù)量為 n,那么輸出的數(shù)據(jù)維度就變?yōu)?4 × n。
?? ? 一維卷積常用于序列模型,自然語(yǔ)言處理領(lǐng)域。
3、三維卷積
這里采用代數(shù)的方式對(duì)三維卷積進(jìn)行介紹,具體思想與一維卷積、二維卷積相同。
?? ? 假設(shè)輸入數(shù)據(jù)的大小為 a1 × a2 × a3,channel數(shù)為 c,過(guò)濾器大小為
f,即過(guò)濾器維度為 f × f × f × c(一般不寫(xiě) channel 的維度),過(guò)濾器數(shù)量為 n。
?? ? 基于上述情況,三維卷積最終的輸出為 ( a1 ? f + 1 ) × ( a2 ? f + 1 ) × ( a3 ? f + 1 ) × n 。該公式對(duì)于一維卷積、二維卷積仍然有效,只有去掉不相干的輸入數(shù)據(jù)維度就行。
?? ? 三維卷積常用于醫(yī)學(xué)領(lǐng)域(CT影響),視頻處理領(lǐng)域(檢測(cè)動(dòng)作及人物行為)。
歡迎加入本站公開(kāi)興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/4764.html
摘要:本論文將嘗試概述卷積網(wǎng)絡(luò)的架構(gòu),并解釋包含激活函數(shù)損失函數(shù)前向傳播和反向傳播的數(shù)學(xué)推導(dǎo)。本文試圖只考慮帶有梯度下降優(yōu)化的典型卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的制定。 近日南洋理工大學(xué)研究者發(fā)布了一篇描述卷積網(wǎng)絡(luò)數(shù)學(xué)原理的論文,該論文從數(shù)學(xué)的角度闡述整個(gè)卷積網(wǎng)絡(luò)的運(yùn)算與傳播過(guò)程。該論文對(duì)理解卷積網(wǎng)絡(luò)的數(shù)學(xué)本質(zhì)非常有幫助,有助于讀者「徒手」(不使用卷積API)實(shí)現(xiàn)卷積網(wǎng)絡(luò)。論文地址:https://arxiv....
摘要:在圖像分析中,卷積神經(jīng)網(wǎng)絡(luò)在時(shí)間和內(nèi)存方面優(yōu)于全連接網(wǎng)絡(luò)。這是為什么呢卷積神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的優(yōu)勢(shì)是什么呢卷積神經(jīng)網(wǎng)絡(luò)是如何從全連接網(wǎng)絡(luò)中派生出來(lái)的呢卷積神經(jīng)網(wǎng)絡(luò)這個(gè)術(shù)語(yǔ)又是從哪里而來(lái)這些問(wèn)題在本文中一一為大家解答。 在圖像分析中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)在時(shí)間和內(nèi)存方面優(yōu)于全連接網(wǎng)絡(luò)(Full Connected, FC)。這...
摘要:卷積滿(mǎn)足交換操作,因此在一般的維空間輸入,自編碼可以被用來(lái)訓(xùn)練解碼編碼。事實(shí)上,解碼卷積的超參數(shù)是由編碼框架確定的由于卷積跨越每個(gè)特征圖,并且產(chǎn)生具有的維度,因此經(jīng)過(guò)濾波器之后產(chǎn)生相同的空間范圍。 作者:chen_h微信號(hào) & QQ:862251340微信公眾號(hào):coderpai簡(jiǎn)書(shū)地址:https://www.jianshu.com/p/ec4... 這篇教程是翻譯Paolo Ga...
閱讀 1116·2019-08-30 15:55
閱讀 3560·2019-08-30 13:10
閱讀 1382·2019-08-29 18:45
閱讀 2463·2019-08-29 16:25
閱讀 2220·2019-08-29 15:13
閱讀 2515·2019-08-29 11:29
閱讀 669·2019-08-26 17:34
閱讀 1583·2019-08-26 13:57