W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
tf中使用 tf.constant_initializer(value) 類生成一個(gè)初始值為常量 value 的 tensor 對(duì)象。
constant_initializer 類的構(gòu)造函數(shù)定義:
def __init__(self, value=0, dtype=dtypes.float32, verify_shape=False):
self.value = value
self.dtype = dtypes.as_dtype(dtype)
self._verify_shape = verify_shape
import tensorflow as tf
value = [0, 1, 2, 3, 4, 5, 6, 7]
init = tf.constant_initializer(value)
with tf.Session() as sess:
x = tf.get_variable('x', shape=[8], initializer=init)
x.initializer.run()
print(x.eval())
#output:
#[ 0. 1. 2. 3. 4. 5. 6. 7.]
神經(jīng)網(wǎng)絡(luò)中經(jīng)常使用常量初始化方法來初始化偏置項(xiàng)。
當(dāng)初始化一個(gè)維數(shù)很多的常量時(shí),一個(gè)一個(gè)指定每個(gè)維數(shù)上的值很不方便,tf提供了 tf.zeros_initializer() 和 tf.ones_initializer() 類,分別用來初始化全 0 和全 1 的tensor 對(duì)象。
import tensorflow as tf
init_zeros=tf.zeros_initializer()
init_ones = tf.ones_initializer
with tf.Session() as sess:
x = tf.get_variable('x', shape=[8], initializer=init_zeros)
y = tf.get_variable('y', shape=[8], initializer=init_ones)
x.initializer.run()
y.initializer.run()
print(x.eval())
print(y.eval())
#output:
# [ 0. 0. 0. 0. 0. 0. 0. 0.]
# [ 1. 1. 1. 1. 1. 1. 1. 1.]
初始化參數(shù)為正態(tài)分布在神經(jīng)網(wǎng)絡(luò)中應(yīng)用的最多,可以初始化為標(biāo)準(zhǔn)正態(tài)分布和截?cái)嗾龖B(tài)分布。
tf中使用 tf.random_normal_initializer() 類來生成一組符合標(biāo)準(zhǔn)正態(tài)分布的 tensor。
tf中使用 tf.truncated_normal_initializer() 類來生成一組符合截?cái)嗾龖B(tài)分布的 tensor。
tf.random_normal_initializer 類和 tf.truncated_normal_initializer 的構(gòu)造函數(shù)定義:
def __init__(self, mean=0.0, stddev=1.0, seed=None, dtype=dtypes.float32):
self.mean = mean
self.stddev = stddev
self.seed = seed
self.dtype = _assert_float_dtype(dtypes.as_dtype(dtype))
import tensorflow as tf
init_random = tf.random_normal_initializer(mean=0.0, stddev=1.0, seed=None, dtype=tf.float32)
init_truncated = tf.truncated_normal_initializer(mean=0.0, stddev=1.0, seed=None, dtype=tf.float32)
with tf.Session() as sess:
x = tf.get_variable('x', shape=[10], initializer=init_random)
y = tf.get_variable('y', shape=[10], initializer=init_truncated)
x.initializer.run()
y.initializer.run()
print(x.eval())
print(y.eval())
#output:
# [-0.40236568 -0.35864913 -0.94253045 -0.40153521 0.1552504 1.16989613
# 0.43091929 -0.31410623 0.70080078 -0.9620409 ]
# [ 0.18356581 -0.06860946 -0.55245203 1.08850253 -1.13627422 -0.1006074
# 0.65564936 0.03948414 0.86558545 -0.4964745 ]
tf中使用 tf.random_uniform_initializer 類來生成一組符合均勻分布的 tensor。
tf.random_uniform_initializer 類構(gòu)造函數(shù)定義:
def __init__(self, minval=0, maxval=None, seed=None, dtype=dtypes.float32):
self.minval = minval
self.maxval = maxval
self.seed = seed
self.dtype = dtypes.as_dtype(dtype)
import tensorflow as tf
init_uniform = tf.random_uniform_initializer(minval=0, maxval=10, seed=None, dtype=tf.float32)
with tf.Session() as sess:
x = tf.get_variable('x', shape=[10], initializer=init_uniform)
x.initializer.run()
print(x.eval())
# output:
# [ 6.93343639 9.41196823 5.54009819 1.38017178 1.78720832 5.38881063
# 3.39674473 8.12443542 0.62157512 8.36026382]
從輸出可以看到,均勻分布生成的隨機(jī)數(shù)并不是從小到大或者從大到小均勻分布的,這里均勻分布的意義是每次從一組服從均勻分布的數(shù)里邊隨機(jī)抽取一個(gè)數(shù)。
tf 中另一個(gè)生成均勻分布的類是 tf.uniform_unit_scaling_initializer(),構(gòu)造函數(shù)是:
def __init__(self, factor=1.0, seed=None, dtype=dtypes.float32):
self.factor = factor
self.seed = seed
self.dtype = _assert_float_dtype(dtypes.as_dtype(dtype))
同樣都是生成均勻分布,tf.uniform_unit_scaling_initializer 跟 tf.random_uniform_initializer 不同的地方是前者不需要指定最大最小值,是通過公式計(jì)算出來的:
max_val = math.sqrt(3 / input_size) * factor
min_val = -max_val
input_size是生成數(shù)據(jù)的維度,factor是系數(shù)。
import tensorflow as tf
init_uniform_unit = tf.uniform_unit_scaling_initializer(factor=1.0, seed=None, dtype=tf.float32)
with tf.Session() as sess:
x = tf.get_variable('x', shape=[10], initializer=init_uniform_unit)
x.initializer.run()
print(x.eval())
# output:
# [-1.65964031 0.59797513 -0.97036457 -0.68957627 1.69274557 1.2614969
# 1.55491126 0.12639415 0.54466736 -1.56159735]
tf 中 tf.variance_scaling_initializer() 類可以生成截?cái)嗾龖B(tài)分布和均勻分布的 tensor,增加了更多的控制參數(shù)。構(gòu)造函數(shù):
def __init__(self, scale=1.0,
mode="fan_in",
distribution="normal",
seed=None,
dtype=dtypes.float32):
if scale <= 0.:
raise ValueError("`scale` must be positive float.")
if mode not in {"fan_in", "fan_out", "fan_avg"}:
raise ValueError("Invalid `mode` argument:", mode)
distribution = distribution.lower()
if distribution not in {"normal", "uniform"}:
raise ValueError("Invalid `distribution` argument:", distribution)
self.scale = scale
self.mode = mode
self.distribution = distribution
self.seed = seed
self.dtype = _assert_float_dtype(dtypes.as_dtype(dtype))
distribution選‘normal’的時(shí)候,生成的是截?cái)嗾龖B(tài)分布,標(biāo)準(zhǔn)差 stddev = sqrt(scale / n), n的取值根據(jù)mode的不同設(shè)置而不同:
mode = "fan_in", n為輸入單元的結(jié)點(diǎn)數(shù);
mode = "fan_out",n為輸出單元的結(jié)點(diǎn)數(shù);
mode = "fan_avg",n為輸入和輸出單元結(jié)點(diǎn)數(shù)的平均值;
distribution 選 ‘uniform’,生成均勻分布的隨機(jī)數(shù) tensor,最大值 max_value和 最小值 min_value 的計(jì)算公式:
max_value = sqrt(3 * scale / n)
min_value = -max_value
函數(shù):tf.glorot_normal_initializer
glorot_normal_initializer(
seed=None,
dtype=tf.float32
)
定義在:tensorflow/python/ops/init_ops.py
Glorot 正常初始化器,也稱為 Xavier 正常初始化器.
它從以0為中心的截?cái)嗾龖B(tài)分布中抽取樣本,stddev = sqrt(2 / (fan_in + fan_out)),其中 fan_in 是權(quán)重張量的輸入單元數(shù),而 fan_out 是權(quán)重張量中的輸出單位數(shù).
參考:HTTP://jmlr.org/proceedings/papers/v9/glorot10a/glorot10a.pdf
參數(shù):
返回值:
返回一個(gè)初始化程序.
函數(shù):tf.glorot_uniform_initializer
glorot_uniform_initializer(
seed=None,
dtype=tf.float32
)
定義在:tensorflow/python/ops/init_ops.py
Glorot 均勻初始化器,也稱為 Xavier 均勻初始化器.
它從一個(gè)均勻分布的 [-limit, limit] 中抽取樣本 , 其中 limit 是 sqrt(6 / (fan_in + fan_out)), 其中 fan_in 是在權(quán)重張量中輸入單位的數(shù)量和 fan_out 是在權(quán)重張量中輸出單位的數(shù)量.
參考:HTTP://jmlr.org/proceedings/papers/v9/glorot10a/glorot10a.pdf
參數(shù):
返回值:
返回一個(gè)初始化程序.
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: