W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
TensorFlow 表達(dá)了高層次的機(jī)器學(xué)習(xí)計(jì)算,大幅簡(jiǎn)化了第一代系統(tǒng),并且具備更好的靈活性和可延展性.
TensorFlow,簡(jiǎn)單看就是Tensor和Flow,即意味著Tensor和Flow是TensorFlow最為基礎(chǔ)的要素;Tensor意味著data,Flow意味著流動(dòng),意味著計(jì)算,意味著映射,即數(shù)據(jù)的流動(dòng),數(shù)據(jù)的計(jì)算,數(shù)據(jù)的映射,同時(shí)也體現(xiàn)數(shù)據(jù)是有向的流動(dòng)、計(jì)算和映射.
讓我們看一段使用 Python API 撰寫的 TensorFlow 示例代碼,讓你對(duì)將要學(xué)習(xí)的內(nèi)容有初步的印象.
這段很短的 Python 程序生成了一些三維數(shù)據(jù),然后用一個(gè)平面擬合它.
import tensorflow as tf
import numpy as np
# 使用 NumPy 生成假數(shù)據(jù)(phony data), 總共 100 個(gè)點(diǎn).
x_data = np.float32(np.random.rand(2, 100)) # 隨機(jī)輸入
y_data = np.dot([0.100, 0.200], x_data) + 0.300
# 構(gòu)造一個(gè)線性模型
#
b = tf.Variable(tf.zeros([1]))
W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0))
y = tf.matmul(W, x_data) + b
# 最小化方差
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
# 初始化變量
init = tf.initialize_all_variables()
# 啟動(dòng)圖 (graph)
sess = tf.Session()
sess.run(init)
# 擬合平面
for step in xrange(0, 201):
sess.run(train)
if step % 20 == 0:
print step, sess.run(W), sess.run(b)
# 得到最佳擬合結(jié)果 W: [[0.100 0.200]], b: [0.300]
我們來(lái)看一下 TensorFlow 是如何解決一個(gè)經(jīng)典的機(jī)器學(xué)習(xí)問(wèn)題的,相信這將激發(fā)你的學(xué)習(xí)興趣.
在神經(jīng)網(wǎng)絡(luò)領(lǐng)域, 最為經(jīng)典的問(wèn)題莫過(guò)于 MNIST 手寫數(shù)字分類問(wèn)題,但是考慮到每個(gè)人對(duì) TensorFlow 知識(shí)掌握的程度不同,我們準(zhǔn)備了兩篇不同程度的教程,分別面向機(jī)器學(xué)習(xí)領(lǐng)域的初學(xué)者和專家.如果你已經(jīng)使用其它軟件訓(xùn)練過(guò)許多 MNIST 模型, 請(qǐng)閱讀高級(jí)教程(紅色藥丸鏈接); 如果你以前從未聽(tīng)說(shuō)過(guò) MNIST, 請(qǐng)閱讀初級(jí)教程(藍(lán)色藥丸鏈接). 如果你的水平介于這兩類人之間,我們建議你先快速瀏覽初級(jí)教程,然后再閱讀高級(jí)教程.
圖片由 CC BY-SA 4.0 授權(quán); 原作者W. Carter
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: