亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

tensorflow.examples.tutorials.mnist

Rocture / 3415人閱讀
TensorFlow是一個(gè)廣泛使用的機(jī)器學(xué)習(xí)框架,它提供了許多示例程序來幫助新手了解如何使用TensorFlow。其中一個(gè)示例程序是tensorflow.examples.tutorials.mnist,它是一個(gè)基于MNIST數(shù)據(jù)集的手寫數(shù)字識別程序。在本文中,我們將討論如何使用tensorflow.examples.tutorials.mnist來構(gòu)建一個(gè)手寫數(shù)字識別器。 首先,我們需要了解MNIST數(shù)據(jù)集。MNIST數(shù)據(jù)集是一個(gè)包含手寫數(shù)字圖像和相應(yīng)標(biāo)簽的數(shù)據(jù)集。它由60000個(gè)訓(xùn)練圖像和10000個(gè)測試圖像組成。每個(gè)圖像都是28x28像素的灰度圖像,標(biāo)簽是0到9之間的數(shù)字,表示圖像中的手寫數(shù)字。 要使用tensorflow.examples.tutorials.mnist,我們需要先安裝TensorFlow。然后,我們可以從TensorFlow的GitHub存儲庫中獲取tensorflow/examples/tutorials/mnist/目錄。在這個(gè)目錄中,有兩個(gè)主要的Python文件:input_data.py和mnist_softmax.py。 input_data.py文件包含一個(gè)函數(shù),可以下載MNIST數(shù)據(jù)集并將其轉(zhuǎn)換為NumPy數(shù)組格式。我們可以使用以下代碼來加載MNIST數(shù)據(jù)集:
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data", one_hot=True)
這將下載MNIST數(shù)據(jù)集并將其存儲在"MNIST_data"目錄中。one_hot=True參數(shù)將標(biāo)簽轉(zhuǎn)換為one-hot編碼格式。 mnist_softmax.py文件包含一個(gè)使用softmax回歸模型進(jìn)行手寫數(shù)字識別的示例程序。softmax回歸是一種用于多類別分類的線性模型。它將輸入向量乘以權(quán)重矩陣,并將結(jié)果傳遞到softmax函數(shù)中,以產(chǎn)生每個(gè)類別的概率分布。我們可以使用以下代碼來定義softmax回歸模型:
import tensorflow as tf

x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
這里,x是一個(gè)占位符,它將在運(yùn)行時(shí)被替換為輸入圖像的扁平化版本。W和b是模型的權(quán)重和偏差,它們將在訓(xùn)練過程中優(yōu)化。y是模型的輸出,它是每個(gè)類別的概率分布。 接下來,我們需要定義損失函數(shù)和優(yōu)化器。損失函數(shù)用于衡量模型的預(yù)測結(jié)果和實(shí)際標(biāo)簽之間的差異。我們使用交叉熵作為損失函數(shù),它是一種廣泛使用的多類別分類損失函數(shù)。優(yōu)化器用于最小化損失函數(shù),我們使用隨機(jī)梯度下降優(yōu)化器。我們可以使用以下代碼來定義損失函數(shù)和優(yōu)化器:
y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
這里,y_是一個(gè)占位符,它將在運(yùn)行時(shí)被替換為實(shí)際標(biāo)簽的one-hot編碼。cross_entropy是交叉熵?fù)p失函數(shù)。train_step是優(yōu)化器,它將使用學(xué)習(xí)率0.5的隨機(jī)梯度下降算法最小化交叉熵?fù)p失函數(shù)。 最后,我們需要定義一個(gè)會話并運(yùn)行訓(xùn)練循環(huán)。訓(xùn)練循環(huán)將重復(fù)執(zhí)行以下步驟:從MNIST數(shù)據(jù)集中獲取一個(gè)批次的圖像和標(biāo)簽,將它們傳遞給模型進(jìn)行訓(xùn)練,計(jì)算損失函數(shù)并更新模型的權(quán)重和偏差。我們可以使用以下代碼來定義會話和訓(xùn)練循環(huán):
sess = tf.InteractiveSession()
tf.global_variables_initializer().run()

for i in range(1000):
  batch_xs, batch_ys = mnist.train.next_batch(100)
  sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
這里,我們使用InteractiveSession來創(chuàng)建一個(gè)會話。我們使用global_variables_initializer()函數(shù)初始化模型的權(quán)重和偏差。在訓(xùn)練循環(huán)中,我們使用mnist.train.next_batch(100)函數(shù)獲取一個(gè)批次的圖像和標(biāo)簽。我們使用feed_dict參數(shù)將批次的圖像和標(biāo)簽傳遞給模型進(jìn)行訓(xùn)練。在訓(xùn)練完成后,我們使用測試集計(jì)算模型的準(zhǔn)確率。 總之,tensorflow.examples.tutorials.mnist是一個(gè)非常有用的示例程序,可以幫助新手了解如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型。通過學(xué)習(xí)這個(gè)示例程序,我們可以掌握如何加載數(shù)據(jù)集、定義模型、定義損失函數(shù)和優(yōu)化器,并運(yùn)行訓(xùn)練循環(huán)來訓(xùn)練模型。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/130661.html

相關(guān)文章

  • 利用 tf.gradients 在 TensorFlow 中實(shí)現(xiàn)梯度下降

    摘要:使用內(nèi)置的優(yōu)化器對數(shù)據(jù)集進(jìn)行回歸在使用實(shí)現(xiàn)梯度下降之前,我們先嘗試使用的內(nèi)置優(yōu)化器比如來解決數(shù)據(jù)集分類問題。使用對數(shù)據(jù)集進(jìn)行回歸通過梯度下降公式,權(quán)重的更新方式如下為了實(shí)現(xiàn)梯度下降,我將不使用優(yōu)化器的代碼,而是采用自己寫的權(quán)重更新。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:http://www.jianshu.com/p/13e0.....

    ckllj 評論0 收藏0
  • tensorflow學(xué)習(xí)筆記3——MNIST應(yīng)用篇

    摘要:的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)的概念卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它的人工神經(jīng)元可以響應(yīng)一部分覆蓋范圍內(nèi)的周圍單元,對于大型圖像處理有出色表現(xiàn)。 MNIST的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)的概念 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種前饋神經(jīng)網(wǎng)絡(luò),它的人工神經(jīng)元可以響應(yīng)一部分覆蓋范圍內(nèi)的周圍單元,對于大型圖像處理有出色表現(xiàn)。[2] 它...

    baishancloud 評論0 收藏0
  • Tensorflow快餐教程(1) - 30行代碼搞定手寫識別

    摘要:在第輪的時(shí)候,竟然跑出了的正確率綜上,借助和機(jī)器學(xué)習(xí)工具,我們只有幾十行代碼,就解決了手寫識別這樣級別的問題,而且準(zhǔn)確度可以達(dá)到如此程度。 摘要: Tensorflow入門教程1 去年買了幾本講tensorflow的書,結(jié)果今年看的時(shí)候發(fā)現(xiàn)有些樣例代碼所用的API已經(jīng)過時(shí)了??磥碜约壕S護(hù)一個(gè)保持更新的Tensorflow的教程還是有意義的。這是寫這一系列的初心。快餐教程系列希望能夠盡可...

    April 評論0 收藏0
  • TensorFlow學(xué)習(xí)筆記(6):TensorBoard之Embeddings

    摘要:前言本文基于官網(wǎng)的寫成。是自帶的一個(gè)可視化工具,是其中的一個(gè)功能,用于在二維或三維空間對高維數(shù)據(jù)進(jìn)行探索。本文使用數(shù)據(jù)講解的使用方法。 前言 本文基于TensorFlow官網(wǎng)的How-Tos寫成。 TensorBoard是TensorFlow自帶的一個(gè)可視化工具,Embeddings是其中的一個(gè)功能,用于在二維或三維空間對高維數(shù)據(jù)進(jìn)行探索。 An embedding is a map ...

    hover_lew 評論0 收藏0

發(fā)表評論

0條評論

Rocture

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<