首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    机器学习之从极大似然估计到最大熵原理以及EM算法详解

    极大似然估计是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出现了,那么可以认为实验条件对A的出现有利,也即出现的概率P(A)较大。极大似然原理的直观想法我们用下面例子说明。设甲箱中有99个白球,1个黑球;乙箱中有1个白球.99个黑球。现随机取出一箱,再从抽取的一箱中随机取出一球,结果是黑球,这一黑球从乙箱抽取的概率比从甲箱抽取的概率大得多,这时我们自然更多地相信这个黑球是取自乙箱的。一般说来,事件A发生的概率与某一未知参数 \theta 有关, \theta 取值不同,则事件A发生的概率P(A|\theta )也不同,当我们在一次试验中事件A发生了,则认为此时的\theta 值应是t的一切可能取值中使P(A|\theta )达到最大的那一个,极大似然估计法就是要选取这样的t值作为参数t的估计值,使所选取的样本在被选的总体中出现的可能性为最大。

    010

    Self-supervised Image Enhancement Network Training with Low Light Images Only

    现有的图像增强数据集都是通过合成或者调整曝光时间得到的,但存在两个问题:①如何确保预先训练的网络可以用于不同设备、不同场景和不同照明条件下收集的图像,而不是构建新的训练数据集。②如何确定用于监督的正常光图像是最好的,因为相对于一张低光照图像,我们可以得到很多的正常光图像。 为了解决上述问题,本文基于信息熵理论和Retinex模型,提出了第一篇基于深度学习的完全自监督做图像增强的论文,本文提出的网络不用成对的数据集,只需要低光照图像(甚至只要一张低光照图像),训练时间为分钟级(minute-level),可以取得实时的性能。该网络将低光照图像分解为反射部分和照度部分,其中反射部分即为增强后的结果。 本文的理论来源:根据信息熵理论,直方图均匀分布的图像熵最大,信息量最大。基于这一点,本文提出了一个假设,即增强后图像最大通道的直方图分布应与直方图均衡化后的低光照图像最大通道的直方图分布一致。有了这一假设,损失函数的设计就不需要正常光图像,不仅保留了增强后图像的真实性,而且包含充足的信息。作者认为,该方法对低亮度图像的获取没有任何依赖,且训练过程完全self-supervised,因此本文提出的方法具有良好的泛化能力,即使预训练的网络对于新的环境结果不是很好,也可以通过重新训练或者微调的方式改善。 基于最大熵的Retinex模型,其理论来源如下,根据Retinex理论,图像可以分解成反射和照度部分,即

    03
    领券