交叉熵損失函數,也稱為對數損失或logistic損失。當模型產生壹個預測值時,該類別的預測概率將不會與真實值(由0或1組成)進行比較,並計算由此產生的損失,然後基於此損失設置壹個對數懲罰項。
在神經網絡中,使用的Softmax函數是連續可導函數,這使得計算損失函數相對於神經網絡中每個權重的導數成為可能(在《機器學習數學基礎》中有完整的推導過程和案例),從而可以相應地調整模型的權重,使損失函數最小化。
擴展數據:
註意事項:
當預測類別為二元分類時,交叉熵損失函數的計算公式如下,其中y為真實類別(值為0或1),p為預測類別的概率(值為0~1)。
計算二元分類交叉熵損失函數的Python代碼如下所示,其中esp為最小值,第五行代碼片段的目的是保證預測概率的值在0到1之間,輸出損失值數組之和為損失函數的最終返回值。
百度百科-交叉熵
百度百科-虧損功能