亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專(zhuān)欄INFORMATION COLUMN

python深度神經(jīng)網(wǎng)絡(luò)tensorflow1.0主要參數(shù)和svm算法

89542767 / 507人閱讀

  本文主要是給大家介紹了python深度神經(jīng)網(wǎng)絡(luò)tensorflow1.0主要參數(shù)和svm算法,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家盡可能不斷進(jìn)步,盡早漲薪


  tf.trainable_variables()獲取練習(xí)主要參數(shù)


  在tf中,參加鍛煉的主要參數(shù)可用tf.trainable_variables()分離出來(lái),如:


  #取出所有參與訓(xùn)練的參數(shù)
  params=tf.trainable_variables()
  print("Trainable variables:------------------------")
  #循環(huán)列出參數(shù)
  for idx,v in enumerate(params):
  print("param{:3}:{:15}{}".format(idx,str(v.get_shape()),v.name))


  這里只能查看參數(shù)的shape和name,并沒(méi)有具體的值。如果要查看參數(shù)具體的值的話,必須先初始化,即:


  sess=tf.Session()
  sess.run(tf.global_variables_initializer())

  同理,我們也可以提取圖片經(jīng)過(guò)訓(xùn)練后的值。圖片經(jīng)過(guò)卷積后變成了特征,要提取這些特征,必須先把圖片feed進(jìn)去。


  具體實(shí)例


  #-*-coding:utf-8-*-
  """
  Created on Sat Jun 3 12:07:59 2017
  author:Administrator
  """
  import tensorflow as tf
  from skimage import io,transform
  import numpy as np
  #-----------------構(gòu)建網(wǎng)絡(luò)----------------------
  #占位符
  x=tf.placeholder(tf.float32,shape=[None,100,100,3],name='x')
  y_=tf.placeholder(tf.int32,shape=[None,],name='y_')
  #第一個(gè)卷積層(100——>50)
  conv1=tf.layers.conv2d(
  inputs=x,
  filters=32,
  kernel_size=[5,5],
  padding="same",
  activation=tf.nn.relu,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01))
  pool1=tf.layers.max_pooling2d(inputs=conv1,pool_size=[2,2],strides=2)
  #第二個(gè)卷積層(50->25)
  conv2=tf.layers.conv2d(
  inputs=pool1,
  filters=64,
  kernel_size=[5,5],
  padding="same",
  activation=tf.nn.relu,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01))
  pool2=tf.layers.max_pooling2d(inputs=conv2,pool_size=[2,2],strides=2)
  #第三個(gè)卷積層(25->12)
  conv3=tf.layers.conv2d(
  inputs=pool2,
  filters=128,
  kernel_size=[3,3],
  padding="same",
  activation=tf.nn.relu,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01))
  pool3=tf.layers.max_pooling2d(inputs=conv3,pool_size=[2,2],strides=2)
  #第四個(gè)卷積層(12->6)
  conv4=tf.layers.conv2d(
  inputs=pool3,
  filters=128,
  kernel_size=[3,3],
  padding="same",
  activation=tf.nn.relu,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01))
  pool4=tf.layers.max_pooling2d(inputs=conv4,pool_size=[2,2],strides=2)
  re1=tf.reshape(pool4,[-1,6*6*128])
  #全連接層
  dense1=tf.layers.dense(inputs=re1,
  units=1024,
  activation=tf.nn.relu,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01),
  kernel_regularizer=tf.nn.l2_loss)
  dense2=tf.layers.dense(inputs=dense1,
  units=512,
  activation=tf.nn.relu,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01),
  kernel_regularizer=tf.nn.l2_loss)
  logits=tf.layers.dense(inputs=dense2,
  units=5,
  activation=None,
  kernel_initializer=tf.truncated_normal_initializer(stddev=0.01),
  kernel_regularizer=tf.nn.l2_loss)
  #---------------------------網(wǎng)絡(luò)結(jié)束---------------------------
  #%%
  #取出所有參與訓(xùn)練的參數(shù)
  params=tf.trainable_variables()
  print("Trainable variables:------------------------")
  #循環(huán)列出參數(shù)
  for idx,v in enumerate(params):
  print("param{:3}:{:15}{}".format(idx,str(v.get_shape()),v.name))
  #%%
  #讀取圖片
  img=io.imread('d:/cat.jpg')
  #resize成100*100
  img=transform.resize(img,(100,100))
  #三維變四維(100,100,3)-->(1,100,100,3)
  img=img[np.newaxis,:,:,:]
  img=np.asarray(img,np.float32)
  sess=tf.Session()
  sess.run(tf.global_variables_initializer())
  #提取最后一個(gè)全連接層的參數(shù)W和b
  W=sess.run(params[26])
  b=sess.run(params[27])
  #提取第二個(gè)全連接層的輸出值作為特征
  fea=sess.run(dense2,feed_dict={x:img})


  最后一條語(yǔ)句就是提取某層的數(shù)據(jù)輸出作為特征。


  注意:這個(gè)程序并沒(méi)有經(jīng)過(guò)訓(xùn)練,因此提取出的參數(shù)只是初始化的參數(shù)。


  綜上所述,這篇文章就給大家介紹完畢了,希望可以給大家?guī)?lái)幫助。

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/128740.html

相關(guān)文章

  • python機(jī)器學(xué)習(xí)tensorflow1.0主要參數(shù)svm算法

      此篇文章首要給大家介紹了python機(jī)器學(xué)習(xí)tensorflow1.0主要參數(shù)和svm算法,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家多多的發(fā)展,盡快漲薪?! f.trainable_variables()提取訓(xùn)練參數(shù)  在tf中,參與訓(xùn)練的參數(shù)可用tf.trainable_variables()提取出來(lái),如: #取出所有參與訓(xùn)練的參數(shù)   params=tf.train...

    89542767 評(píng)論0 收藏0
  • 分享AI有道干貨 | 126 篇 AI 原創(chuàng)文章精選(ML、DL、資源、教程)

    摘要:值得一提的是每篇文章都是我用心整理的,編者一貫堅(jiān)持使用通俗形象的語(yǔ)言給我的讀者朋友們講解機(jī)器學(xué)習(xí)深度學(xué)習(xí)的各個(gè)知識(shí)點(diǎn)。今天,紅色石頭特此將以前所有的原創(chuàng)文章整理出來(lái),組成一個(gè)比較合理完整的機(jī)器學(xué)習(xí)深度學(xué)習(xí)的學(xué)習(xí)路線圖,希望能夠幫助到大家。 一年多來(lái),公眾號(hào)【AI有道】已經(jīng)發(fā)布了 140+ 的原創(chuàng)文章了。內(nèi)容涉及林軒田機(jī)器學(xué)習(xí)課程筆記、吳恩達(dá) deeplearning.ai 課程筆記、機(jī)...

    jimhs 評(píng)論0 收藏0
  • ?openGauss數(shù)據(jù)庫(kù)源碼解析系列文章—— DeepSQL?

    ???大家好,我是Gauss松鼠會(huì),歡迎進(jìn)來(lái)學(xué)習(xí)啦~??? 上一篇介紹了 8.6 AI查詢時(shí)間預(yù)測(cè)的相關(guān)內(nèi)容,本篇我們介紹8.7 DeepSQL、8.8 小結(jié)的相關(guān)精彩內(nèi)容介紹。 8.7 DeepSQL 前面提到的功能均為AI4DB領(lǐng)域,AI與數(shù)據(jù)庫(kù)結(jié)合還有另外一個(gè)大方向,即DB4AI。在本章中,我們將介紹openGauss的DB4AI能力,探索通過(guò)數(shù)據(jù)庫(kù)來(lái)高效驅(qū)動(dòng)AI任務(wù)的新途徑。 使用場(chǎng)景 ...

    Atom 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<