亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

GitChat · 人工智能 | 腫瘤醫(yī)療影像 AI 識別技術(shù)實踐

songjz / 1446人閱讀

摘要:大數(shù)據(jù)人工智能分析技術(shù)使得醫(yī)學(xué)影像診斷軟硬件變得更智能化。通過已訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò),能很快地搭建并訓(xùn)練自己的深度學(xué)習(xí)系統(tǒng)。目前,典型的卷積神經(jīng)網(wǎng)絡(luò)是一個多層的可訓(xùn)練的體系結(jié)構(gòu)。使用平均值操作的池化層被稱之為平均池化層。

來自 GitChat 作者:王曉明
更多IT技術(shù)分享,盡在微信公眾號:GitChat技術(shù)雜談

進(jìn)入 GitChat 閱讀原文

前言

醫(yī)學(xué)影像與人工智能的結(jié)合,是數(shù)字醫(yī)療領(lǐng)域較新的分支和產(chǎn)業(yè)熱點。醫(yī)學(xué)影像的解讀需要長時間專業(yè)經(jīng)驗的積累,醫(yī)生的培養(yǎng)周期相對較長,很多程度上,深度學(xué)習(xí)和醫(yī)生的學(xué)習(xí)過程是一樣的,通過海量知識的學(xué)習(xí)理解和應(yīng)用,而人工智能在對圖像的檢測效率和精度兩個方面,可以做得比專業(yè)醫(yī)生更快。

大數(shù)據(jù)與人工智能等前沿技術(shù)在醫(yī)療領(lǐng)域應(yīng)用已經(jīng)成為一種趨勢,將大數(shù)據(jù)驅(qū)動的人工智能應(yīng)用于癌癥診斷中,無疑為患者僻出一線生機,不僅可以挽救無數(shù)患者的生命,而且對于緩解醫(yī)療資源和醫(yī)患矛盾也有重大意義。

一、醫(yī)學(xué)影像的簡要介紹

醫(yī)學(xué)影像是指為了醫(yī)療或醫(yī)學(xué)研究,對人體或人體某部分,以非侵入方式取得內(nèi)部組織影像的技術(shù)與處理過程。它包含以下兩個相對獨立的研究方向:醫(yī)學(xué)成像系統(tǒng)(medical imaging system)和醫(yī)學(xué)圖像處理(medical image processing)。前者是指圖像行成的過程,包括對成像機理、成像設(shè)備、成像系統(tǒng)分析等問題的研究;后者是指對已經(jīng)獲得的圖像作進(jìn)一步的處理,其目的是或者是使原來不夠清晰的圖像復(fù)原,或者是為了突出圖像中的某些特征信息,或者是對圖像做模式分類等等。

現(xiàn)代醫(yī)學(xué)影像學(xué)的高速發(fā)展,醫(yī)學(xué)影像技術(shù)已經(jīng)由傳統(tǒng)單一普通X線加血管造影檢查形成包括UI、CT、CR、DR、MRI、PET、PET-CT、數(shù)字減影血管造影以及PACS等多種技術(shù)組成的醫(yī)學(xué)影像學(xué)體系。影像成像技術(shù)的不斷豐富使醫(yī)學(xué)影像從“輔助檢查手段”變?yōu)楝F(xiàn)代醫(yī)學(xué)最重要的臨床診斷和鑒別診斷方法。接下來醫(yī)學(xué)影像將向三個方向發(fā)展:(1)由單一形態(tài)學(xué)影像檢查設(shè)備向“形態(tài)+功能”的融合型影像發(fā)展;(2)由大型設(shè)備轉(zhuǎn)向小型、簡便的床邊化儀器,未來將越來越多地投入應(yīng)用到重癥監(jiān)護(hù)、家庭醫(yī)療、預(yù)防保健等領(lǐng)域;(3)現(xiàn)代醫(yī)學(xué)影像技術(shù)與放射治療手段結(jié)合,使診斷與治療一體化。我們認(rèn)為,更先進(jìn)和便利的影像診斷設(shè)備將使臨床診療將更加依賴于影像檢查,帶來影像需求增多,循環(huán)促進(jìn)影像設(shè)備領(lǐng)域的發(fā)展。

大數(shù)據(jù)人工智能分析技術(shù)使得醫(yī)學(xué)影像診斷軟硬件變得更智能化。用深度學(xué)習(xí)技術(shù)分析醫(yī)學(xué)影像和視頻是一個新的研究方向。通過已訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò),能很快地搭建并訓(xùn)練自己的深度學(xué)習(xí)系統(tǒng)。

二、用 Python 進(jìn)行圖像處理的基礎(chǔ)

用于圖像處理的庫有很多,其中 OpenCV(Open computer vision) 比較主流,基于C/C++,支持Linux/Windows/MacOS/Android/iOS,并提供了Python,Matlab和Java等語言的接口,因為其豐富的接口,優(yōu)秀的性能和商業(yè)友好的使用許可,不管是學(xué)術(shù)界還是業(yè)界中都非常受歡迎。作為當(dāng)前非常流行的動態(tài)語言之一,Python不僅使用非常簡單,而且功能強大。通過Python來學(xué)習(xí)OpenCV框架,可以讓你很快理解計算機視覺的基本概念以及重要算法。

安裝時,既可以用 pip install opencv-python,也可以從 opencv.org 下載源碼。本文簡單介紹pip安裝的方式。

pip install --upgrade setuptools

pip install numpy Matplotlib

pip install opencv-python


圖2-1 加載胃部病歷切片的Python代碼示例

三、用于圖像識別的神經(jīng)網(wǎng)絡(luò)

1943年,心理學(xué)家W.S.McCulloch和數(shù)理邏輯學(xué)家W.Pitts建立了神經(jīng)網(wǎng)絡(luò)和數(shù)學(xué)模型,稱為MP模型。他們通過MP模型提出了神經(jīng)元的形式化數(shù)學(xué)描述和網(wǎng)絡(luò)結(jié)構(gòu)方法,證明了單個神經(jīng)元能執(zhí)行邏輯功能,從而開創(chuàng)了人工神經(jīng)網(wǎng)絡(luò)研究的時代。

卷積神經(jīng)網(wǎng)絡(luò)是對人工神經(jīng)網(wǎng)絡(luò)的進(jìn)一步改進(jìn),是一種專門為了識別二維圖像而設(shè) 計的一種能夠自動提取圖像特征的特殊的多層感知器。原始圖像不需要太多的預(yù)處理就 可以較好的學(xué)習(xí)到圖像的不變性特征。目前,典型的卷積神經(jīng)網(wǎng)絡(luò)是一個多層的、可訓(xùn)練的體系結(jié)構(gòu)。包括輸入、卷積層(局部連接層)、抽樣層、歸一化層、全連接層、邏輯回歸層和輸出層等等。如何提高卷積神經(jīng)網(wǎng)絡(luò)對圖像的識別效果,需要識別的數(shù)據(jù)集 如何找到最合適的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)配置,以及對于不同的數(shù)據(jù)集都具有一定兼容性的網(wǎng)絡(luò)結(jié)構(gòu)成為現(xiàn)在研究的熱點。

典型的卷積神經(jīng)網(wǎng)絡(luò)的概念模型如圖 3-1 所示。每一層是由多個二維平面組成。網(wǎng)絡(luò)中包括卷積層和池化層,分別表示為 C 層和 S 層。網(wǎng)絡(luò)中間還包含著一些隱藏層,它們在全連接層。在網(wǎng)絡(luò)體系結(jié)構(gòu)中,輸入層只有一個,它直接接收二維對象,對于樣本的特征提取過程是嵌套在卷積和池化過程中。在全連接層內(nèi)包含多個隱含層,主要實現(xiàn)分類的過程。


圖3-1 卷積神經(jīng)網(wǎng)絡(luò)通用模型

圖3-2中顯示了卷積層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中最重要的部分,這個部分被稱之為過濾器(filter)或者內(nèi)核(kernel)。因為TensorFlow文檔中將這個結(jié)構(gòu)稱之為過濾器(filter),所以我們將統(tǒng)稱這個結(jié)構(gòu)為過濾器。如圖4所示,過濾器可以將當(dāng)前層神經(jīng)網(wǎng)絡(luò)上的一個子節(jié)點矩陣轉(zhuǎn)化為下一層神經(jīng)網(wǎng)絡(luò)上的一個單位節(jié)點矩陣。單位節(jié)點矩陣指的是一個長和寬都為1,但深度不限的節(jié)點矩陣。


圖3-2 卷積層過濾器(filter)結(jié)構(gòu)示意圖

在一個卷積層中,過濾器所處理的節(jié)點矩陣的長和寬都是由人工指定的,這個節(jié)點矩陣的尺寸也被稱之為過濾器的尺寸。常用的過濾器尺寸有3×3或5×5。因為過濾器處理的矩陣深度和當(dāng)前層神經(jīng)網(wǎng)絡(luò)節(jié)點矩陣的深度是一致的,所以雖然節(jié)點矩陣是三維的,但過濾器的尺寸只需要指定兩個維度。過濾器中另外一個需要人工指定的設(shè)置是處理得到的單位節(jié)點矩陣的深度,這個設(shè)置稱為過濾器的深度。注意過濾器的尺寸指的是一個過濾器輸入節(jié)點矩陣的大小,而深度指的是輸出單位節(jié)點矩陣的深度。如圖3-2所示,左側(cè)小矩陣的尺寸為過濾器的尺寸,而右側(cè)單位矩陣的深度為過濾器的深度。

TensorFlow對卷積神經(jīng)網(wǎng)絡(luò)提供了非常好的支持,下面的程序?qū)崿F(xiàn)了一個卷積層的前向傳播過程。從以下代碼可以看出,通過TensorFlow實現(xiàn)卷積層是非常方便的。

    # 通過tf.get_variable的方式創(chuàng)建過濾器的權(quán)重變量和偏置項變量。上面介紹了卷積層
    # 的參數(shù)個數(shù)只和過濾器的尺寸、深度以及當(dāng)前層節(jié)點矩陣的深度有關(guān),所以這里聲明的參數(shù)變
    # 量是一個四維矩陣,前面兩個維度代表了過濾器的尺寸,第三個維度表示當(dāng)前層的深度,第四
    # 個維度表示過濾器的深度。
    filter_weight = tf.get_variable(
        "weights", [5, 5, 3, 16], 
        initializer=tf.truncated_normal_initializer(stddev=0.1))
    # 和卷積層的權(quán)重類似,當(dāng)前層矩陣上不同位置的偏置項也是共享的,所以總共有下一層深度個不
    # 同的偏置項。本樣例代碼中16為過濾器的深度,也是神經(jīng)網(wǎng)絡(luò)中下一層節(jié)點矩陣的深度。
    biases = tf.get_variable(
        "biases", [16], initializer=tf.constant_initializer(0.1))
    
    # tf.nn.conv2d提供了一個非常方便的函數(shù)來實現(xiàn)卷積層前向傳播的算法。這個函數(shù)的第一個輸
    # 入為當(dāng)前層的節(jié)點矩陣。注意這個矩陣是一個四維矩陣,后面三個維度對應(yīng)一個節(jié)點矩陣,第一
    # 維對應(yīng)一個輸入batch。比如在輸入層,input[0,:,:,:]表示第一張圖片,input[1,:,:,:] 
    # 表示第二張圖片,以此類推。tf.nn.conv2d第二個參數(shù)提供了卷積層的權(quán)重,第三個參數(shù)為不
    # 同維度上的步長。雖然第三個參數(shù)提供的是一個長度為4的數(shù)組,但是第一維和最后一維的數(shù)字
    # 要求一定是1。這是因為卷積層的步長只對矩陣的長和寬有效。最后一個參數(shù)是填充(padding)
    # 的方法,TensorFlow中提供SAME或是VALID兩種選擇。其中SAME表示添加全0填充,
    # “VALID”表示不添加。
    conv = tf.nn.conv2d(
        input, filter_weight, strides=[1, 1, 1, 1], padding="SAME")
    
    # tf.nn.bias_add提供了一個方便的函數(shù)給每一個節(jié)點加上偏置項。注意這里不能直接使用加
    # 法,因為矩陣上不同位置上的節(jié)點都需要加上同樣的偏置項。雖然下一層神經(jīng)網(wǎng)絡(luò)的大小為
    # 2×2,但是偏置項只有一個數(shù)(因為深度為1),而2×2矩陣中的每一個值都需要加上這個
    # 偏置項。
    bias = tf.nn.bias_add(conv, biases)
    # 將計算結(jié)果通過ReLU激活函數(shù)完成去線性化。
    actived_conv = tf.nn.relu(bias)

在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層之間往往會加上一個池化層(pooling layer)。池化層可以非常有效地縮小矩陣的尺寸,從而減少最后全連接層中的參數(shù)。使用池化層既可以加快計算速度也有防止過擬合問題的作用。和卷積層類似,池化層前向傳播的過程也是通過移動一個類似過濾器的結(jié)構(gòu)完成的。不過池化層過濾器中的計算不是節(jié)點的加權(quán)和,而是采用更加簡單的最大值或者平均值運算。使用最大值操作的池化層被稱之為最大池化層(max pooling),這是被使用得最多的池化層結(jié)構(gòu)。使用平均值操作的池化層被稱之為平均池化層(average pooling)。

    # tf.nn. max_pool實現(xiàn)了最大池化層的前向傳播過程,它的參數(shù)和tf.nn.conv2d函數(shù)類似。
    # ksize提供了過濾器的尺寸,strides提供了步長信息,padding提供了是否使用全0填充。
    pool = tf.nn.max_pool(actived_conv, ksize=[1, 3, 3, 1], 
                              strides=[1, 2, 2, 1], padding="SAME")

我們通過一個圖像分類問題介紹卷積神經(jīng)網(wǎng)絡(luò)是如何工作的。下面是卷積神經(jīng)網(wǎng)絡(luò)判斷一個圖片是否包含“兒童”的過程,包括四個步驟:圖像輸入(InputImage)→卷積(Convolution)→最大池化(MaxPooling)→全連接神經(jīng)網(wǎng)絡(luò)(Fully-ConnectedNeural Network)計算。


圖3-3 神經(jīng)網(wǎng)絡(luò)判斷一個圖片是否包含“兒童”的過程

首先將圖片分割成如下圖的重疊的獨立小塊。接下來將每一個獨立小塊輸入小的神經(jīng)網(wǎng)絡(luò);這個小的神經(jīng)網(wǎng)絡(luò)已經(jīng)被訓(xùn)練用來判斷一個圖片是否屬于“兒童”類別,它輸出的是一個特征數(shù)組。 標(biāo)準(zhǔn)的數(shù)碼相機有紅、綠、藍(lán)三個通道(Channels),每一種顏色的像素值在0-255之間,構(gòu)成三個堆疊的二維矩陣;灰度圖像則只有一個通道,可以用一個二維矩陣來表示。

將所有的獨立小塊輸入小的神經(jīng)網(wǎng)絡(luò)后,再將每一個輸出的特征數(shù)組按照第一步時77個獨立小塊的相對位置做排布,得到一個新數(shù)組。

第二步中,這個小的神經(jīng)網(wǎng)絡(luò)對這77張大小相同的小圖片都進(jìn)行同樣的計算,也稱權(quán)重共享(SharedWeights)。這樣做是因為,第一,對圖像等數(shù)組數(shù)據(jù)來說,局部數(shù)組的值經(jīng)常是高度相關(guān)的,可以形成容易被探測到的獨特的局部特征;第二,圖像和其它信號的局部統(tǒng)計特征與其位置是不太相關(guān)的,如果特征圖能在圖片的一個部分出現(xiàn),也能出現(xiàn)在任何地方。所以不同位置的單元共享同樣的權(quán)重,并在數(shù)組的不同部分探測相同的模式。數(shù)學(xué)上,這種由一個特征圖執(zhí)行的過濾操作是一個離散的卷積,卷積神經(jīng)網(wǎng)絡(luò)由此得名。

卷積步驟完成后,再使用MaxPooling算法來縮減像素采樣數(shù)組,按照2×2來分割特征矩陣,分出的每一個網(wǎng)格中只保留最大值數(shù)組,丟棄其它數(shù)組,得到最大池化數(shù)組(Max-PooledArray)。 接下來將最大池化數(shù)組作為另一個神經(jīng)網(wǎng)絡(luò)的輸入,這個全連接神經(jīng)網(wǎng)絡(luò)會最終計算出此圖是否符合預(yù)期的判斷。

在實際應(yīng)用時,卷積、最大池化和全連接神經(jīng)網(wǎng)絡(luò)計算,這幾步中的每一步都可以多次重復(fù)進(jìn)行,總思路是將大圖片不斷壓縮,直到輸出單一的值。使用更多卷積步驟,神經(jīng)網(wǎng)絡(luò)就可以處理和學(xué)習(xí)更多的特征。

四、胃癌病理切片的識別

在醫(yī)學(xué)影像領(lǐng)域,病理圖片向來是醫(yī)療領(lǐng)域的“金標(biāo)準(zhǔn)”,病理診斷是對疾病下最終判斷的環(huán)節(jié)。人工讀片會有:主觀性高、重復(fù)性低、定量及信息利用度不足、耗時及勞動強度和知識經(jīng)驗的傳承困難等問題。而人工智能病理切片識別系統(tǒng)的優(yōu)勢在于能自動分析、分割、檢測感興趣區(qū)域、能夠定量地評估病變區(qū)域的變異程度,結(jié)果具有可重復(fù)性。


圖4-1 胃癌病理切片

圖4-1被橙色曲線所標(biāo)注的區(qū)域是為此圖中可見的部分癌巢(細(xì)胞發(fā)生癌變的區(qū)域);癌巢與正常區(qū)域看起來十分不同,幾個藍(lán)色方框選取的區(qū)域即是正常區(qū)域的示例。這些不同主要是由于癌細(xì)胞的形態(tài)學(xué)特征和相互間的排列分布,與正常區(qū)域的細(xì)胞截然不同而造成的。

胃癌病理切片識別的目標(biāo)是利于深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù),使計算機能夠自動地將胃癌數(shù)字組織病理切片的局部視野中的癌巢快速精準(zhǔn)地標(biāo)識出來。

選取胃癌病理切片,為常規(guī)HE染色,放大倍數(shù)20×,圖片大小為2048×2048像素,tiff 格式。選取200個病人案例(80%癌癥、20%非癌癥),共計2000張病理切片圖片,訓(xùn)練集數(shù)量1500張,測試集數(shù)量500張。

數(shù)據(jù)標(biāo)注:

病理專家將數(shù)據(jù)標(biāo)記(雙盲評估+驗證)為有無癌癥,并用線條畫出腫瘤區(qū)域輪廓,提供知識圖譜說明。

關(guān)于胃癌病理切片AI識別其實是2017中國大數(shù)據(jù)人工智能創(chuàng)新創(chuàng)業(yè)大賽的一個賽題。大賽官網(wǎng):http://www.datadreams.org/rac... 我是2016年上海BOT大賽聊天機器人的參賽者,這里算是免費給他們打個廣告,有興趣的同學(xué)可以找我組團打比賽。

五、AI 技術(shù)在醫(yī)療領(lǐng)域的前景分析

人工智能的最大特點就是高效的計算和精準(zhǔn)的分析與決策,這一點剛好擊中現(xiàn)在的醫(yī)療痛點,或能從根本上解決醫(yī)療資源供不應(yīng)求的局面。醫(yī)學(xué)影像的識別是人工智能切入醫(yī)療行業(yè)的一個切入點,因為病理科,放射科醫(yī)生讀片是醫(yī)療領(lǐng)域的一個明顯的痛點。未來醫(yī)療一定是向精準(zhǔn)個性化醫(yī)療的方向發(fā)展,但是發(fā)展路途上也有很多障礙,比如電子病歷數(shù)據(jù)分散在各家醫(yī)院,數(shù)據(jù)的收集整理工作是一個漫長而艱難的任務(wù)。分析病歷文本的NLP技術(shù)目前也不是很成熟,在構(gòu)建醫(yī)療知識圖譜的過程中,需要大量專業(yè)醫(yī)生的參與等等。人工智能+醫(yī)療,一定是需要人工智能人才+醫(yī)生通力合作才能研發(fā)出適合醫(yī)生的智能輔助診斷系統(tǒng)。


實錄:《王曉明:腫瘤醫(yī)療影像 AI 識別技術(shù)實戰(zhàn)解析》


文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/19636.html

相關(guān)文章

發(fā)表評論

0條評論

songjz

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<