TensorFlow的基本使用

2020-11-30 17:09 更新

TensorFlow 的特點:

  • 使用圖 (graph) 來表示計算任務.
  • 在被稱之為 會話 (Session) 的上下文 (context) 中執(zhí)行圖.
  • 使用 tensor 表示數(shù)據(jù).
  • 通過 變量 (Variable) 維護狀態(tài).
  • 使用 feed 和 fetch 可以為任意的操作(arbitrary operation) 賦值或者從其中獲取數(shù)據(jù).

TensorFlow 綜述

TensorFlow 是一個編程系統(tǒng), 使用圖來表示計算任務.圖中的節(jié)點被稱之為 op (operation 的縮寫). 一個 op 獲得 0 個或多個Tensor, 執(zhí)行計算, 產生 0 個或多個 Tensor. 每個 Tensor 是一個類型化的多維數(shù)組. 例如, 你可以將一小組圖像集表示為一個四維浮點數(shù)數(shù)組, 這四個維度分別是 [batch, height, width, channels].

一個 TensorFlow 圖描述了計算的過程. 為了進行計算, 圖必須在 會話 里被啟動. 會話 將圖的 op 分發(fā)到諸如 CPU 或 GPU 之類的 設備 上, 同時提供執(zhí)行 op 的方法. 這些方法執(zhí)行后, 將產生的 tensor 返回. 在 Python 語言中, 返回的 tensor 是 numpy ndarray 對象; 在 C 和 C++ 語言中, 返回的 tensor 是tensorflow::Tensor 實例.

TensorFlow 計算圖

TensorFlow 程序通常被組織成一個構建階段和一個執(zhí)行階段. 在構建階段, op 的執(zhí)行步驟 被描述成一個圖. 在執(zhí)行階段, 使用會話執(zhí)行執(zhí)行圖中的 op.

例如, 通常在構建階段創(chuàng)建一個圖來表示和訓練神經網(wǎng)絡,然后在執(zhí)行階段反復執(zhí)行圖中的訓練 op.

TensorFlow 支持 C, C++, Python 編程語言. 目前, TensorFlow 的 Python 庫更加易用, 它提供了大量的輔助函數(shù)來簡化構建圖的工作, 這些函數(shù)尚未被 C 和 C++ 庫支持.

三種語言的會話庫 (session libraries) 是一致的.

TensorFlow 構建圖

構建圖的第一步, 是創(chuàng)建源 op (source op).源 op 不需要任何輸入, 例如 常量 (Constant). 源 op 的輸出被傳遞給其它 op 做運算.

Python 庫中, op 構造器的返回值代表被構造出的 op 的輸出, 這些返回值可以傳遞給其它 op 構造器作為輸入.

TensorFlow Python 庫有一個默認圖 (default graph), op 構造器可以為其增加節(jié)點。這個默認圖對許多程序來說已經足夠用了。

import tensorflow as tf

# 創(chuàng)建一個常量 op, 產生一個 1x2 矩陣. 這個 op 被作為一個節(jié)點
# 加到默認圖中.
#
# 構造器的返回值代表該常量 op 的返回值.
matrix1 = tf.constant([[3., 3.]])

# 創(chuàng)建另外一個常量 op, 產生一個 2x1 矩陣.
matrix2 = tf.constant([[2.],[2.]])

# 創(chuàng)建一個矩陣乘法 matmul op , 把 'matrix1' 和 'matrix2' 作為輸入.
# 返回值 'product' 代表矩陣乘法的結果.
product = tf.matmul(matrix1, matrix2)

默認圖現(xiàn)在有三個節(jié)點,兩個 constant() op, 和一個matmul() op。為了真正進行矩陣相乘運算,并得到矩陣乘法的 結果,你必須在會話里啟動這個圖。

在一個會話中啟動圖

構造階段完成后, 才能啟動圖。啟動圖的第一步是創(chuàng)建一個 Session 對象,如果無任何創(chuàng)建參數(shù), 會話構造器將啟動默認圖。

# 啟動默認圖.
sess = tf.Session()

# 調用 sess 的 'run()' 方法來執(zhí)行矩陣乘法 op, 傳入 'product' 作為該方法的參數(shù). 
# 上面提到, 'product' 代表了矩陣乘法 op 的輸出, 傳入它是向方法表明, 我們希望取回
# 矩陣乘法 op 的輸出.
#
# 整個執(zhí)行過程是自動化的, 會話負責傳遞 op 所需的全部輸入. op 通常是并發(fā)執(zhí)行的.
# 
# 函數(shù)調用 'run(product)' 觸發(fā)了圖中三個 op (兩個常量 op 和一個矩陣乘法 op) 的執(zhí)行.
#
# 返回值 'result' 是一個 numpy `ndarray` 對象.
result = sess.run(product)
print result
# ==> [[ 12.]]

# 任務完成, 關閉會話.
sess.close()

Session 對象在使用完后需要關閉以釋放資源. 除了顯式調用 close 外, 也可以使用 "with" 代碼塊 來自動完成關閉動作.

with tf.Session() as sess:
  result = sess.run([product])
  print result

在實現(xiàn)上, TensorFlow 將圖形定義轉換成分布式執(zhí)行的操作, 以充分利用可用的計算資源(如 CPU 或 GPU). 一般你不需要顯式指定使用 CPU 還是 GPU, TensorFlow 能自動檢測. 如果檢測到 GPU, TensorFlow 會盡可能地利用找到的第一個 GPU 來執(zhí)行操作.

如果機器上有超過一個可用的 GPU, 除第一個外的其它 GPU 默認是不參與計算的. 為了讓 TensorFlow 使用這些 GPU, 你必須將 op 明確指派給它們執(zhí)行. with...Device 語句用來指派特定的 CPU 或 GPU 執(zhí)行操作:

with tf.Session() as sess:
  with tf.device("/gpu:1"):
    matrix1 = tf.constant([[3., 3.]])
    matrix2 = tf.constant([[2.],[2.]])
    product = tf.matmul(matrix1, matrix2)
    ...

設備用字符串進行標識. 目前支持的設備包括:

  • "/cpu:0": 機器的 CPU.
  • "/gpu:0": 機器的第一個 GPU, 如果有的話.
  • "/gpu:1": 機器的第二個 GPU, 以此類推.

交互式使用

文檔中的 Python 示例使用一個會話 Session 來 啟動圖, 并調用 Session.run() 方法執(zhí)行操作.

為了便于使用諸如 IPython 之類的 Python 交互環(huán)境, 可以使用 InteractiveSession 代替 Session 類, 使用 Tensor.eval() 和 Operation.run() 方法代替 Session.run(). 這樣可以避免使用一個變量來持有會話.

# 進入一個交互式 TensorFlow 會話.
import tensorflow as tf
sess = tf.InteractiveSession()

x = tf.Variable([1.0, 2.0])
a = tf.constant([3.0, 3.0])

# 使用初始化器 initializer op 的 run() 方法初始化 'x' 
x.initializer.run()

# 增加一個減法 sub op, 從 'x' 減去 'a'. 運行減法 op, 輸出結果 
sub = tf.sub(x, a)
print sub.eval()
# ==> [-2. -1.]

Tensor

TensorFlow 程序使用 tensor 數(shù)據(jù)結構來代表所有的數(shù)據(jù),計算圖中, 操作間傳遞的數(shù)據(jù)都是 tensor. 你可以把 TensorFlow tensor 看作是一個 n 維的數(shù)組或列表. 一個 tensor 包含一個靜態(tài)類型 rank, 和 一個 shape。

變量

變量維護圖執(zhí)行過程中的狀態(tài)信息.下面的例子演示了如何使用變量實現(xiàn)一個簡單的計數(shù)器.

# 創(chuàng)建一個變量, 初始化為標量 0.
state = tf.Variable(0, name="counter")

# 創(chuàng)建一個 op, 其作用是使 state 增加 1

one = tf.constant(1)
new_value = tf.add(state, one)
update = tf.assign(state, new_value)

# 啟動圖后, 變量必須先經過`初始化` (init) op 初始化,
# 首先必須增加一個`初始化` op 到圖中.
init_op = tf.initialize_all_variables()

# 啟動圖, 運行 op
with tf.Session() as sess:
  # 運行 'init' op
  sess.run(init_op)
  # 打印 'state' 的初始值
  print sess.run(state)
  # 運行 op, 更新 'state', 并打印 'state'
  for _ in range(3):
    sess.run(update)
    print sess.run(state)

# 輸出:

# 0
# 1
# 2
# 3

代碼中 assign() 操作是圖所描繪的表達式的一部分, 正如 add() 操作一樣. 所以在調用 run() 執(zhí)行表達式之前, 它并不會真正執(zhí)行賦值操作.

通常會將一個統(tǒng)計模型中的參數(shù)表示為一組變量.例如, 你可以將一個神經網(wǎng)絡的權重作為某個變量存儲在一個 tensor 中.在訓練過程中, 通過重復運行訓練圖, 更新這個 tensor.

Fetch

為了取回操作的輸出內容, 可以在使用 Session 對象的 run() 調用 執(zhí)行圖時, 傳入一些 tensor, 這些 tensor 會幫助你取回結果. 在之前的例子里, 我們只取回了單個節(jié)點 state, 但是你也可以取回多個 tensor:

input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
intermed = tf.add(input2, input3)
mul = tf.mul(input1, intermed)

with tf.Session() as sess:
  result = sess.run([mul, intermed])
  print result

# 輸出:
# [array([ 21.], dtype=float32), array([ 7.], dtype=float32)]

需要獲取的多個 tensor 值,在 op 的一次運行中一起獲得(而不是逐個去獲取 tensor).

Feed

上述示例在計算圖中引入了 tensor, 以常量或變量的形式存儲. TensorFlow 還提供了 feed 機制, 該機制可以臨時替代圖中的任意操作中的 tensor 可以對圖中任何操作提交補丁, 直接插入一個 tensor.

feed 使用一個 tensor 值臨時替換一個操作的輸出結果. 你可以提供 feed 數(shù)據(jù)作為 run() 調用的參數(shù). feed 只在調用它的方法內有效, 方法結束, feed 就會消失. 最常見的用例是將某些特殊的操作指定為 "feed" 操作, 標記的方法是使用 tf.placeholder() 為這些操作創(chuàng)建占位符.


input1 = tf.placeholder(tf.types.float32)
input2 = tf.placeholder(tf.types.float32)
output = tf.mul(input1, input2)

with tf.Session() as sess:
  print sess.run([output], feed_dict={input1:[7.], input2:[2.]})

# 輸出:
# [array([ 14.], dtype=float32)]

如果沒有正確提供 feed, placeholder() 操作將會產生錯誤.

以上內容是否對您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號
微信公眾號

編程獅公眾號