TensorFlow函數(shù):tf.uniform_unit_scaling_initializer

2018-04-11 10:34 更新

tf.uniform_unit_scaling_initializer函數(shù)

uniform_unit_scaling_initializer 類

別名:

  • 類 tf.initializers.uniform_unit_scaling
  • 類 tf.uniform_unit_scaling_initializer

定義在:tensorflow/python/ops/init_ops.py

請參閱指南:變量>共享變量

初始化器,可生成張量而不會縮放方差.

初始化深度網(wǎng)絡時,原則上有利的是保持輸入方差的比例不變,因此它不會通過到達最后一層而迅速擴大或減少.如果輸入是 x,操作是:x * W,我們想要隨機地初始化 W,則需要我們挑選從以下表達中挑選 W:

[-sqrt(3) / sqrt(dim), sqrt(3) / sqrt(dim)]

保持該比例不變,其中 dim = W.shape[0](輸入的大小).卷積網(wǎng)絡的類似計算給出了類似的結果,其 dim 等于前三個維度的乘積.當存在非線性時,我們需要乘以一個常數(shù) factor.參見 Sussillo et al., 2014 (pdf) 了解更深層次的動機,實驗和常量的計算.

函數(shù)參數(shù):

  • factor:浮點型,一個乘法因子,其值將被縮放.
  • seed:一個 Python 的整數(shù)用于創(chuàng)建隨機種子,參閱:tf.set_random_seed函數(shù).
  • dtype:數(shù)據(jù)類型,僅支持浮點類型.

方法

__init__

__init__(
    factor=1.0,
    seed=None,
    dtype=tf.float32
)

此功能已被取消.它將在未來版本中刪除.更新說明:使用 tf.initializers.variance_scaling 而不是 distribution=uniform 來獲得等效行為.

__call__

__call__(
    shape,
    dtype=None,
    partition_info=None
)

from_config

from_config(
    cls,
    config
)

從配置字典中實例化初始化程序.

如下示例:

initializer = RandomUniform(-1, 1)
config = initializer.get_config()
initializer = RandomUniform.from_config(config)

參數(shù):

  • config:一個 Python 的字典,它通常是 get_config 的輸出.

返回值:

返回一個初始化實例.

get_config

get_config()
以上內容是否對您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號
微信公眾號

編程獅公眾號