W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
tf.nn.sigmoid_cross_entropy_with_logits(
_sentinel=None,
labels=None,
logits=None,
name=None
)
定義在:tensorflow/python/ops/nn_impl.py。
計(jì)算給定logits的sigmoid交叉熵。
測(cè)量離散分類任務(wù)中的概率誤差,其中每個(gè)類是獨(dú)立的而不是互斥的。例如,可以執(zhí)行多標(biāo)簽分類,其中圖片可以同時(shí)包含大象和狗。
為簡(jiǎn)潔起見, x = logits
, z = labels
。logistic損失是:
z * -log(sigmoid(x)) + (1 - z) * -log(1 - sigmoid(x))
= z * -log(1 / (1 + exp(-x))) + (1 - z) * -log(exp(-x) / (1 + exp(-x)))
= z * log(1 + exp(-x)) + (1 - z) * (-log(exp(-x)) + log(1 + exp(-x)))
= z * log(1 + exp(-x)) + (1 - z) * (x + log(1 + exp(-x))
= (1 - z) * x + log(1 + exp(-x))
= x - x * z + log(1 + exp(-x))
對(duì)于x <0,為避免exp(-x)中的溢出,我們重新配置上述內(nèi)容:
x - x * z + log(1 + exp(-x))
= log(exp(x)) - x * z + log(1 + exp(-x))
= - x * z + log(1 + exp(x))
因此,為了確保穩(wěn)定性并避免溢出,使用以下的等效公式實(shí)現(xiàn):
max(x, 0) - x * z + log(1 + exp(-abs(x)))
logits和labels必須具有相同的類型和shape。
參數(shù):
返回:
與具有分量logistic損失的logits有著相同shape的Tensor。
可能引發(fā)的異常:
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: