Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >PYTHON 贝叶斯概率推断序列数据概率和先验、似然和后验图可视化

PYTHON 贝叶斯概率推断序列数据概率和先验、似然和后验图可视化

作者头像
拓端
发布于 2025-04-10 08:32:41
发布于 2025-04-10 08:32:41
11300
代码可运行
举报
文章被收录于专栏:拓端tecdat拓端tecdat
运行总次数:0
代码可运行

原文链接:http://tecdat.cn/?p=24191

在这篇文章中,我将集中讨论一个给定一个短数据序列的推断概率的例子。我将首先介绍如何用贝叶斯方法进行期望推理的理论,然后在 Python 中实现该理论,以便我们能够处理这些想法。为了使文章更容易理解,我将只考虑一小组候选概率。我能够最小化推理的数学难度,同时仍然能够得到非常好的结果,包括先验、似然和后验图

具体来说,我将考虑以下情况:

  • 计算机程序输出一个由 1和 0组成的随机字符串。例如,一个示例输出可能是:
  • 目标是推断程序用于生成 D 的 0 的概率。我们使用符号 p0 表示 0 的概率。当然这也意味着 1 的概率必须是 p1=1−p0。
  • 如上所述,我们只考虑一组候选概率。具体来说,对上面的数据序列使用候选 p0=0.2,0.4,0.6,0.8。我们如何明智地在这些概率中进行选择,以及我们对结果有多大把握?

概率

我的出发点是写出数列的概率,就好像我知道0或1的概率一样。当然,我不知道这些概率——找到这些概率是我们的目标——但这是先验的有用的地方。例如,我们的示例数据系列的概率,不需要具体说明 p0的值,可以写成:

我使用 p1=1−p0 来写出 p0的概率。我还可以以更紧凑的方式写出上述概率:

上面给出的概率的形式称为 伯努利过程 。我也可以用非常通用的方式来写这个概率,而不是具体关于数据系列 D 或概率 p0,如:

n0 和 n1 表示数据系列中 0 和 1 的数量。

通过替换相关的计数和概率,我可以将一般形式与特定示例联系起来。我首先计算上面给出的数据系列和概率的似然值:

检查结果,我发现 p0 = 0.6的可能性最大,略高于 p0 = 0.8。这里有几点需要注意:

  • 我有最大似然值(在考虑的值中)。我可以提供答案 p0=0.6 并完成。
  • 概率(似然)的总和 不是 1—— 这意味着我没有正确归一化关于 p0的概率质量函数(pmf) ,我试图推断的参数。贝叶斯推理的一个目标是为 p0 提供一个适当归一化的 pmf,称为后验。

进行上述计算的能力使我能够很好地应用贝叶斯定理并获得所需的后验 pmf。在继续讨论贝叶斯定理之前,我想再次强调似然函数的一般形式 :

写下对数似然也很有用:

因为当我在下面创建一些 Python 代码时,这种形式增加了数值稳定性。需要明确的是,我使用的是自然(以 e 为底)对数,即 loge(x)=ln(x)。

先验

我已经决定了部分先验——选择 p0∈{0.2,0.4,0.6,0.8} 作为我将考虑的一组概率。剩下的就是为每个候选 p0 分配先验概率,这样我就可以从正确归一化的先验 pmf 开始。假设先验相等,这是一种推理:

其中使用 A1表示我所做的假设。以上信息构成了先验的 pmf。

贝叶斯定理和后验

接下来,我使用 上面定义的 似然 和 先验pmf 来推断 p0 的潜在值。也就是说,我将使用贝叶斯定理来计算 给定似然和先验的 后验pmf。后验有形式:

换句话说,这是 给定数据序列 D 和假设 A1_的_ p0 _的概率,_我可以使用贝叶斯定理计算后验:

其中先验 P(p0|A1)是红色,似然 P(D|p0) 是黑色,后验 P(p0|D,A1)是蓝色的。

这使我的 p0信息从假设(A1)更新到假设 + 数据(d,A1) :

我可以通过定义边际似然函数来简化贝叶斯定理 :

我可以将贝叶斯定理写成以下形式:

后验部分应该被看作是一组方程,对应于 p0的每个候选值,就像我们对似然和先验所做的那样。

最后,对于理论,我计算了 p0 的后验 pmf。让我们从计算依据开始(我知道上面的似然和先验的所有值):

因此,贝叶斯定理中的分母等于 9.57440e-04。现在,完成后验 pmf 计算。

第一,

第二,

第三,

最后,

回顾

在 Python 代码之前,让我们稍微回顾一下结果。使用数据和贝叶斯定理我已经从 先验的 pmf

到 后验pmf

在贝叶斯设置中,这个后验 pmf 是我们推断 p0的答案,反映了我们对给定假设和数据的参数的知识。通常人们想报告一个单一的数字,但这个后验反映了相当多的不确定性。一些选择是:

  • 报告 p0的 _最大后验_值——在本例中为 0.6。
  • 报告 后验平均值_、 _后验中位数 ——使用_后验_ pmf 进行计算。
  • 包括后验方差或置信区间来描述估计中的不确定性。

然而,报告的推论,沟通不确定性是工作的一部分。在实际操作中,后面的图确实有助于完成任务。所以,让我们离开理论,在 Python 中实现这些想法。

用 Python 编写推理代码

首先,代码导入 numpy 和 matplotlib。使用 ggplot 样式来绘图。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
imprt matlli.pplt as plt

# 使用 mapltlb 样式表
try:
    pl.stye.use('gglot')

首先,我创建了一个类来处理 似然。该类接收数据序列并提供一个接口,用于计算给定概率 p0的似然。你能够在方法中找到对数似然方程(对于边际情况需要特别注意)。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
class liihd:
    def \_\_int\_\_(elf,dat):
        """二进制数据"""
        slff._possa(data)

    def \_pss\_a(slf,data):
        tep = \[str(x) for x in dta\]
        for s in \['0', '1'\]:
            slf.cnts\[s\] = emp.ount(s)

        iflen(tmp) != sum(ef.conts.valus()):
            rase Exepon("!")

    def \_prcs\_pobites(self, p0):
        """处理数据."""
        n0 = slf.couts\['0'\]
        n1 = slf.conts\['1'\]

        if p0 != 0and p0 != 1:
            # 例子
            log_dta = n0*np.og(p0) + \
                         n1*np.log(1.-p0)
            p\_daa = np.ep(opr\_dta)
        elif p0 == 0and n0 != 0:
            # 如果不是0,p0就不是0
            lordta= -np.inf
            prta = np.exp(lor_daa)
        elif p0 == 0and n0 == 0:
            ## 数据与 p0 = 0一致
            logpr_data = n1*np.log(1.-p0)
            prdat = np.exp(lor_dta)
        elif p0 = 1and n1 != 0:
            # 如果 n1不是0 p0就不是1
            loprta = -np.inf
            paa = np.exp(lgpaa)
        elif p0 == 1and n1 == 0:
            ordta = n0*np.log(p0)
            prta = np.xp(lgp_dta)


    defprb(self, p0):
        """获取数据的概率"""
        p\_at, \_ = sef.pcrbbes(p0)

        retrn prdta

    deflo_pb(sef, p0):
        """获取数据对数概率"""
        _, lp\_at = slf.p\_plie(p0)

        reurn lor_ta

接下来我为先验的 pmf创建一个类 。给定 p0 的候选值列表,默认情况下会创建一个均匀先验。如果需要其他,可以传递先验概率来覆盖此默认值。下面我举个例子。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
class prior:
    def \_\_ni\_\_(self, pls, pobs=Nne):
        """先验  
           列表: 允许的 p0’列表
           P_pos: \[可选\]先验概率
        """
        if p_prbs:
            # 确保先验正态
            nom = sum(p_pbs.vaes())
            sel.lopct = {p:np.log(_prbs\[p\]) - \
                                np.log(nrm) for p in p_lst}
        else:
            n = len(p_is)
            sef.lo\_pict = {p:-np.log(n) for p in p\_lst}

    def \_\_iter\_\_(self):
        rturn ier(sre(slf.lopit))

    deflgpob(self, p):
        """获取p 0的对数/先验概率."""
        if p in sef.ogpdt:
            return sf.og_ic\[p\]
        else:
            return -np.inf

    defprob(slf, p):
        """获取p 0的先验概率."""
        if p in slf.gt:
            retun np.ep(sf.o_pt\[p\])
        else:
            reurn 0.0

最后,我为后验构造一个类, 它采用数据和先验类的一个实例构造后验 pmf。plot() 方法提供了一个非常好的推理可视化,包括 先验、 似然 和 后验的图。

请注意,后验的所有计算都是使用对数概率完成的。这对于数值精度来说是绝对必要的,因为概率可能变化很大,可能非常小。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
class posir:
    def \_\_it\_\_(slf, da ta, p ior):
        """数据:作为列表的数据样本
        """
        sel.lod = lklio(dta)
        lf.prr = prir
        self.possior()

    def \_pocss\_ostrior(elf):
        """使用传递的数据和先验处理后验。"""

        nuts = {}
        deniaor = -npnf
        for p in slf.prir:
            netor\[p\] = sef.lieioo.logrob(p) + \
                            slf.riorog_rob(p)

            if nurts\[p\] != -np.inf:

                deoior = nplgxp(eoior,
                                           ners\[p\])

        # 保存贝叶斯定理中的分母
        sef.lo_lielod = deoiato

        # 计算后验
        slf.ogict = {}
        for p in slf.pior:
            elf.lopct\[p\] = umros\[p\] - \
                                slf.lmllio

    deflogpob(self, p):
        """获取通过 p 的对数后验概率"""
        if p in self.loic:
            retrn self.ogdt\[p\]
        else:
            retrn -np.inf

    defprob(self, p):
        """获取通过的 p 的后验概率"""
        if p in sl.lo_pdit:
            rtrn np.exp(sef.lct\[p\])
        else:
            rurn 0.0

    defplot(slf):
        """绘制推理结果"""

        f, ax= plt.sbs3, 1, ise=(8, 6), hae=Tre)
        # 从先验中获取候选概率
        x = \[p for p in elf.prir\]

        # 绘制先验ob(p) for p in x\])
        ax\[0\].sem y1,inf='-, meft'', bef = -')


        # 绘图似然
        ax\[1\].stem(x, y, lifm= -',aerf t=ko bafmt=w')

        # 绘图后验
        ax\[2\].tm,y3 if='b-, mmt=bo, sefm-')

例子

让我们测试一下代码。首先,我将复制我们在理论例子中所做的例子,以确保一切正常:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#数据
data1

# 先验
A1 = prior(\[0.2, 0.4, 0.6, 0.8\])

# 后验
pt1 = postior(da1, A1)
plot()

请注意后验 pmf 如何很好地表明 p0=0.6 和 p0=0.8 都有很大的概率——这里存在不确定性!这是有道理的,因为我们只有一个长度为 10 的数据系列,而且只有四个候选概率。

另外,请注意:

  • 先验和后验中所有数字的总和为 1,反映这些是合适的 pmfs。

接下来,让我们考虑设置一个强先验——偏好 p0 的一个值。使用我们的 Python 代码很容易看到这个先验对结果后验的影响:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 先验- 将按类标准化
A2

# 后验
po2 = ptror(data, A2)
pot()

注意以下几点:

  • 后验和似然不再具有相同的形状。
  • p0=0.2,0.4 的后验概率_相对于它们的先验概率_都 下降了, 因为它们对于提供的数据序列的似然性很低。以类似的方式,p0=0.6,0.8 的后验概率_相对于它们的先验概率_有所 _增加_。

最后,让我们用更多的候选概率(这里是100)和更长的数据序列来做一个例子。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 设置为0的概率
p0 = 0.2
# 设置 rng 种子为 4
np.andom.ed(4)
# 生成据
da2= np.roie(\[0,1\],  p=\[p0, 1.-p0\])

# 先验
A3 = pir(np.aane)

# 后验
ps3 = porir(daa2, A3)
plot()

注意几点:

  • 后验有一个很好的光滑的形状-我处理的概率看起来像是一个连续的值。
  • 注意这个数据量的似然值(y 轴)很小。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 拓端数据部落 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
深入浅出贝叶斯模型选择
贝叶斯推理[1](Bayesian inference)是统计学中的一个重要问题,也是许多机器学习方法中经常遇到的问题。例如,用于分类的高斯混合模型或用于主题建模的潜在狄利克雷分配(Latent Dirichlet Allocation,简称LDA)模型等概率图模型都需要在拟合数据时解决这一问题。
数据STUDIO
2021/11/10
1.7K0
贝叶斯估计、最大似然估计、最大后验概率估计
1. 引言 贝叶斯估计、最大似然估计(MLE)、最大后验概率估计(MAP)这几个概念在机器学习和深度学习中经常碰到,读文章的时候还感觉挺明白,但独立思考时经常会傻傻分不清楚(?),因此希望通过本文对其
Tyan
2019/05/25
1.3K0
【通俗理解】贝叶斯统计
在统计学中有两个学派,一个是频率学派,另一个是贝叶斯学派。频率学派认为参数θ是一个固定的值,而不是随机变量,只不过是不知道它的值而已;而贝叶斯学派则认为任何参数θ都是一个随机变量,也有自己的概率分布。所以这两个学派分别形成了最大似然估计(maximum likelihood estimate,MLE)和最大后验估计(maximum a posteriori estimate,MAP)。 贝叶斯统计的一些概念 先验分布(prior probability distribution):它是总体分布参数θ的一个概
用户1594945
2018/07/20
1.7K0
【机器学习】贝叶斯机器学习:经典模型与代码实现
贝叶斯定理是概率模型中最著名的理论之一,在机器学习中也有着广泛的应用。基于贝叶斯理论常用的机器学习概率模型包括朴素贝叶斯和贝叶斯网络。本章在对贝叶斯理论进行简介的基础上,分别对朴素贝叶斯和贝叶斯网络理论进行详细的推导并给出相应的代码实现,针对朴素贝叶斯模型,本章给出其NumPy和sklearn的实现方法,而贝叶斯网络的实现则是借助于pgmpy。
黄博的机器学习圈子
2021/07/07
1.9K0
【机器学习】贝叶斯机器学习:经典模型与代码实现
《搞懂朴素贝叶斯:先验概率与后验概率的深度剖析》
在人工智能与机器学习领域,朴素贝叶斯算法凭借其简洁高效的特性,在文本分类、垃圾邮件过滤、情感分析等诸多场景中广泛应用。而想要深入理解朴素贝叶斯算法,掌握其中先验概率和后验概率的含义及计算方法是关键。今天,我们就一起深入探讨这两个重要概念。
程序员阿伟
2025/02/03
1620
Naïve Bayes(朴素贝叶斯)
在概率论和统计学中,Bayes’ theorem(贝叶斯法则)根据事件的先验知识描述事件的概率。贝叶斯法则表达式如下所示\eqref{eq:Bayes_theorem}:
EltonZheng
2021/01/26
1.2K0
程序员的数学--用贝叶斯定理来推断一个案子
因为可能性是个主观感受,没有办法量化,所以在数学中一般会问年不群是正人君子的概率有多高?
Frank909
2020/08/19
3830
通俗易懂!白话朴素贝叶斯
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/red_stone1/article/details/80935942
红色石头
2019/05/25
8470
贝叶斯分类器及Python实现
贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。本文由本人学习贝叶斯分类器过程中的笔记,再加上使用Python进行文本分类实战组成。
YingJoy_
2018/03/16
3K7
贝叶斯分类器及Python实现
三人成虎,概率却不足十分之五?
你打算去西雅图旅游,但不确定是否会下雨。你打电话给三个在西雅图居住但彼此不认识的朋友询问。你的每个朋友都有2/3的可能告诉你真实情况,也有1/3的可能他们会搞砸。询问后所有的朋友都告诉你会下雨。
生信宝典
2019/05/09
1.7K0
三人成虎,概率却不足十分之五?
估计参数的方法:最大似然估计、贝叶斯推断
假设有3个数据点,产生这3个数据点的过程可以通过高斯分布表达。这三个点分别是9、9.5、11。我们如何计算高斯分布的参数μ 、σ的最大似然估计?
lovelife110
2021/01/14
1.3K0
估计参数的方法:最大似然估计、贝叶斯推断
深入浅出经典贝叶斯统计
当结果是一个不确定但可重复的过程的结果时,概率总是可以通过简单地观察多次过程的重复并计算每个事件发生的频率来衡量。这些频率概率可以很好地陈述客观现实。如
数据STUDIO
2021/11/10
1.2K0
机器学习–朴素贝叶斯模型原理
朴素贝叶斯中的朴素是指特征条件独立假设, 贝叶斯是指贝叶斯定理, 我们从贝叶斯定理开始说起吧.
全栈程序员站长
2022/09/20
4130
算法——贝叶斯
简介 学过概率理论的人都知道条件概率的公式:P(AB)=P(A)P(B|A)=P(B)P(A|B);即事件A和事件B同时发生的概率等于在发生A的条件下B发生的概率乘以A的概率。由条件概率公式推导出贝叶斯公式:P(B|A)=P(A|B)P(B)/P(A);即,已知P(A|B),P(A)和P(B)可以计算出P(B|A)。 假设B是由相互独立的事件组成的概率空间{B1,b2,...bn}。则P(A)可以用全概率公式展开:P(A)=P (A|B1)P(B1)+P(A|B2)P(B2)+..P(A|Bn)P(Bn)。
cloudskyme
2018/03/20
1.2K0
算法——贝叶斯
朴素贝叶斯 Numpy实现高斯朴素贝叶斯
小小程序员
2023/12/09
2800
概率论之概念解析:用贝叶斯推断进行参数估计
【导读】既昨天推出概率论之概念解析:极大似然估计,大家反响热烈,今天专知推出其续集——贝叶斯推断进行参数估计。本文是数据科学家Jonny Brooks-Bartlett概率论基础概念系列博客中的“贝叶斯推断”一章,主要讲解了使用贝叶斯定理进行参数估计的细节。作者使用简单的例子、通俗的语言讲解枯燥的数学公式,博文内容覆盖了贝叶斯定理、贝叶斯公式、共轭先验、贝叶斯推断进行参数估计。这是一篇非常不错的贝叶斯入门文章,如果你对贝叶斯基础有所欠缺,相信你一定能从本文获益良多。 概率论基础概念系列博客——概率论之概念解
WZEARW
2018/04/12
4.3K0
概率论之概念解析:用贝叶斯推断进行参数估计
朴素贝叶斯三种模型_朴素贝叶斯多分类
由上图可以看出,在事件B已经发生的情况下,事件A发生的概率为事件A和事件B的交集除以事件B:
全栈程序员站长
2022/11/10
1.3K0
朴素贝叶斯三种模型_朴素贝叶斯多分类
贝叶斯学习
贝叶斯学习(Baysian Learning)是基于贝叶斯定理的一个推断方法。其考虑的场景为:我们观测到一个数据集合 ,其服从条件分布 (我们称 为 模型分布),其中模型参数 是未知的(当看作是 的函数时, 也被称为 模型似然)。尽管 是未知的,但先验分布 往往是已知的,而我们要求解的便是 。
hotarugali
2022/04/25
1.4K0
机器学习-23:MachineLN之朴素贝叶斯
贝叶斯模型是指模型参数的推断用的是贝叶斯估计方法,也就是需要指定先验分布,再求取后验分布。
MachineLP
2022/05/09
3610
机器学习-23:MachineLN之朴素贝叶斯
贝叶斯学习记录
这篇文章用于记录学习贝叶斯定理及其应用过程中的记录,希望由浅及深的提供一份自我学习教程。 引子 概率的定义:概率是一个0-1之间的数,代表了我们对某个事实或预测的相信程度。 条件概率: 指基于某种背景信息的概率值。 联合概率:指2个或多个事件同时发生的概率。 事件独立性:一个事件的发生不影响其他事件即为事件的独行性。 概率的数学表示:事件A发生的概率写作 P(A), 事件B发生的概率写作 P(B), 给定事件A后事件B发生的概率 P(B|A), 事件A和B同时发生的概率P(A and B)。 事件的独立性
生信宝典
2018/02/05
7910
相关推荐
深入浅出贝叶斯模型选择
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验