W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
tf.losses.sparse_softmax_cross_entropy(
labels,
logits,
weights=1.0,
scope=None,
loss_collection=tf.GraphKeys.LOSSES,
reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
定義在:tensorflow/python/ops/losses/losses_impl.py.
使用tf.nn.sparse_softmax_cross_entropy_with_logits的交叉熵(cross-entropy)loss.
weights作為loss的系數(shù).如果提供了標(biāo)量,那么loss只是按給定值縮放.如果weights是形狀為[batch_size]的張量,則loss權(quán)重適用于每個(gè)相應(yīng)的樣本.
參數(shù):
返回:
與logits具有相同類型的加權(quán)損失Tensor.如果reduction是NONE,它的形狀與labels相同;否則,它是標(biāo)量.
可能引發(fā)的異常:
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: