W3Cschool
恭喜您成為首批注冊用戶
獲得88經驗值獎勵
tf.losses.softmax_cross_entropy(
onehot_labels,
logits,
weights=1.0,
label_smoothing=0,
scope=None,
loss_collection=tf.GraphKeys.LOSSES,
reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
定義在:tensorflow/python/ops/losses/losses_impl.py.
使用tf.nn.softmax_cross_entropy_with_logits創(chuàng)建交叉熵(cross-entropy)loss.
weights作為loss的系數(shù).如果提供了標量,那么loss只是按給定值縮放.如果weights是形狀為[batch_size]的張量,則loss權重適用于每個相應的樣本.
如果label_smoothing非零,則將標簽平滑為:1/num_classes: new_onehot_labels = onehot_labels * (1 - label_smoothing) + label_smoothing / num_classes
參數(shù):
返回:
與logits具有相同類型的加權損失Tensor.如果reduction是NONE,這有形狀[batch_size];否則,它是標量.
可能引發(fā)的異常:
Copyright©2021 w3cschool編程獅|閩ICP備15016281號-3|閩公網(wǎng)安備35020302033924號
違法和不良信息舉報電話:173-0602-2364|舉報郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號
聯(lián)系方式:
更多建議: