介紹TensorFlow

2019-04-09 09:29 更新

什么是 TensorFlow

TensorFlow 表達(dá)了高層次的機(jī)器學(xué)習(xí)計(jì)算,大幅簡(jiǎn)化了第一代系統(tǒng),并且具備更好的靈活性和可延展性.

TensorFlow,簡(jiǎn)單看就是Tensor和Flow,即意味著Tensor和Flow是TensorFlow最為基礎(chǔ)的要素;Tensor意味著data,Flow意味著流動(dòng),意味著計(jì)算,意味著映射,即數(shù)據(jù)的流動(dòng),數(shù)據(jù)的計(jì)算,數(shù)據(jù)的映射,同時(shí)也體現(xiàn)數(shù)據(jù)是有向的流動(dòng)、計(jì)算和映射.

從實(shí)例開(kāi)始學(xué)習(xí) TensorFlow

讓我們看一段使用 Python API 撰寫的 TensorFlow 示例代碼,讓你對(duì)將要學(xué)習(xí)的內(nèi)容有初步的印象.

這段很短的 Python 程序生成了一些三維數(shù)據(jù),然后用一個(gè)平面擬合它.

import tensorflow as tf
import numpy as np

# 使用 NumPy 生成假數(shù)據(jù)(phony data), 總共 100 個(gè)點(diǎn).
x_data = np.float32(np.random.rand(2, 100)) # 隨機(jī)輸入
y_data = np.dot([0.100, 0.200], x_data) + 0.300

# 構(gòu)造一個(gè)線性模型
# 
b = tf.Variable(tf.zeros([1]))
W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0))
y = tf.matmul(W, x_data) + b

# 最小化方差
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

# 初始化變量
init = tf.initialize_all_variables()

# 啟動(dòng)圖 (graph)
sess = tf.Session()
sess.run(init)

# 擬合平面
for step in xrange(0, 201):
    sess.run(train)
    if step % 20 == 0:
        print step, sess.run(W), sess.run(b)

# 得到最佳擬合結(jié)果 W: [[0.100  0.200]], b: [0.300]

利用 TensorFlow 解決經(jīng)典機(jī)器學(xué)習(xí)問(wèn)題

我們來(lái)看一下 TensorFlow 是如何解決一個(gè)經(jīng)典的機(jī)器學(xué)習(xí)問(wèn)題的,相信這將激發(fā)你的學(xué)習(xí)興趣.

在神經(jīng)網(wǎng)絡(luò)領(lǐng)域, 最為經(jīng)典的問(wèn)題莫過(guò)于 MNIST 手寫數(shù)字分類問(wèn)題,但是考慮到每個(gè)人對(duì) TensorFlow 知識(shí)掌握的程度不同,我們準(zhǔn)備了兩篇不同程度的教程,分別面向機(jī)器學(xué)習(xí)領(lǐng)域的初學(xué)者和專家.如果你已經(jīng)使用其它軟件訓(xùn)練過(guò)許多 MNIST 模型, 請(qǐng)閱讀高級(jí)教程(紅色藥丸鏈接); 如果你以前從未聽(tīng)說(shuō)過(guò) MNIST, 請(qǐng)閱讀初級(jí)教程(藍(lán)色藥丸鏈接). 如果你的水平介于這兩類人之間,我們建議你先快速瀏覽初級(jí)教程,然后再閱讀高級(jí)教程.

  

圖片由 CC BY-SA 4.0 授權(quán); 原作者W. Carter



以上內(nèi)容是否對(duì)您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號(hào)
微信公眾號(hào)

編程獅公眾號(hào)