其实我们常用的 softmax 交叉熵损失函数,和 最大似然估计是等价的。
首先来看 softmax 交叉熵目标函数是什么样子的: 对于N个样本
j: 第 n 个样本属于 第 j 类, f 代表神经网络。
如果用最大似然估计呢?即:最大化已出现的样本的概率
最大化上式等价于最小化 负的上式,所以和 softmax 交叉熵是等价的。
所以,softmax 交叉熵也是想 最大化 已出现样本的概率。
本文分享自 作者个人站点/博客 前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!