Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >1个例子解释 隐马尔科夫模型(HMM) 的 5 个基本要素

1个例子解释 隐马尔科夫模型(HMM) 的 5 个基本要素

作者头像
double
发布于 2018-07-25 09:49:37
发布于 2018-07-25 09:49:37
3.1K0
举报
文章被收录于专栏:算法channel算法channel

隐马尔可夫模型(Hidden Markov Model,HMM)是一个寻找事物在一段时间里的变化模式的统计学方法,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析。

HMM 现已成功地用于语音识别自然语言处理,模式识别以及故障诊断等领域。

下面,通过一个例子,通俗易懂地解释 HMM 的 5 个基本要素,希望对大家有所启发。

基本要素

隐马尔可夫模型的 5 个要素如下所示:

1. 隐含状态 S

这些状态之间满足马尔可夫性质,是马尔可夫模型中实际所隐含的状态。这些状态通常无法通过直接观测而得到。

2. 可观测状态 O

在模型中与隐含状态相关联,可通过直接观测而得到,例如O1、O2、O3等。

3. 初始状态概率矩阵 π

表示隐含状态在初始时刻 t=1 的概率矩阵,例如 t=1 时,P(S1)=p1、P(S2)=P2、P(S3)=p3,则初始状态概率矩阵 π=[ p1 p2 p3 ].

4. 隐含状态转移概率矩阵 A

描述了HMM模型中 各个隐含状态 之间的转移概率,Aij = P( Sj | Si ), 1≤i, j≤N

表示在 t 时刻、状态为 Si 的条件下,在 t+1 时刻状态是 Sj 的概率。

5. 观测状态转移概率矩阵 B,英文为 Confusion Matrix,令N代表隐含状态数目,M代表可观测状态数目,则:Bij = P( Oi | Sj ), 1≤i≤M, 1≤j≤N ,表示在 t 时刻、隐含状态是 Sj 条件下,观察状态为 Oi 的概率。

例子解释

假设我们手里有三个不同的骰子,第一个骰子是我们平常见的骰子,称这个骰子为 D6,6个面,每个面(1,2,3,4,5,6)出现的概率是1/6。第二个骰子是个四面体,称这个骰子为 D4,每个面(1,2,3,4)出现的概率是1/4。第三个骰子有八个面,称这个骰子为 D8,每个面(1,2,3,4,5,6,7,8)出现的概率是1/8。

因此,HMM 的 5 个要素中的 2 个已经知道了,即:隐含状态 S = { D6, D4, D8 };可观测状态 O = {1,2,3,4,5,6,7,8 }. 同时,其他3个矩阵的shape也能确定了,初始状态初始状态概率矩阵的 shape 为 (3,1) , 隐含状态转移概率矩阵 A 的 shape 为 (3,3) ,观测状态转移概率矩阵 B 的shape 为 (3, 8).

假设我们开始掷骰子,我们先从三个骰子里挑一个,挑到每一个骰子的概率都是1/3。然后我们掷骰子,得到一个数字,1,2,3,4,5,6,7,8中的一个。不停的重复上述过程,我们会得到一串数字,每个数字都是1,2,3,4,5,6,7,8中的一个。

例如我们可能得到这么一串数字(掷骰子5次):1 6 3 5 2 . 这串数字叫做可见状态链。但是在隐马尔可夫模型中,我们不仅仅有这么一串可见状态链,还有一串隐含状态链。在这个例子里,这串隐含状态链就是你用的骰子的序列。比如,隐含状态链有可能是:D6 D8 D8 D6 D4

一般来说,HMM中说到的马尔可夫链其实是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability)。在我们这个例子里,设定 t= 1 时, 抽中骰子 D4, D6, D8 的概率分别为 1/3 ,则初始状态概率矩阵为 (1/3, 1/3, 1/3).

设定,D6后面不能接D4,D6后面是D6的概率是0.9,是D8的概率是0.1;D4后面是D4 的概率为 0.3,D6的概率为 0.3,D8的概率是 0.4 ;D8后面是D4 的概率为 0.6,D6的概率为 0.1,D8的概率是 0.3 ;则 隐含状态转移概率矩阵 A

D4 D6 D8

D4 0.3 0.3 0.4

D6 0 0.9 0.1

D8 0.6 0.1 0.3

尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。就我们的例子来说,六面骰(D6)产生1的输出概率是1/6。产生2,3,4,5,6的概率也都是1/6。我们同样可以对输出概率进行其他定义。比如,我有一个被赌场动过手脚的六面骰子,掷出来是1的概率更大,是1/2,掷出来是2,3,4,5,6的概率是1/10,因此 ,观测状态转移概率矩阵 B

1 2 3 4 5 6 7 8

D4 1/4 1/4 1/4 1/4 0 0 0 0

D6 1/6 1/6 1/6 1/6 1/6 1/6 0 0

D8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8

我们同样可以对输出概率进行其他定义。比如,我有一个D6筛子被赌场动过手脚掷出来是1的概率更大,是1/2,掷出来是2,3,4,5,6的概率是1/10,则此时的 观测状态转移概率矩阵 B

1 2 3 4 5 6 7 8

D4 1/4 1/4 1/4 1/4 0 0 0 0

D6 1/2 1/10 1/10 1/10 1/10 1/10 0 0

D8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8

总结

例子解释 HMM 的 5 元素,希望对大家有用。如果觉得有点帮助,欢迎点赞和转发,您的鼓励是我一直前进的最大动力!

相关链接

  • https://blog.csdn.net/applenob/article/details/51470729
  • https://www.cnblogs.com/skyme/p/4651331.html

点击以下标题查看相关内容:

  • 深度学习|大师之作,必是精品
  • 免费送6本精选的算法,机器学习,深度学习的书
  • 机器学习、深度学习干货分享
  • 自然语言处理|语言模型介绍
  • 自然语言处理之词To词向量
  • 一文了解自然语言处理的每个范畴用到的核心技术,难点和热点(1)
  • NLP入门:CNN,RNN应用文本分类,个性化搜索,苹果和乔布斯关系抽取(2)
  • 下一代信息服务新风口:以自然语言为基本输入方式的问答系统综述(附两篇论文)
  • 一文梳理NLP之机器翻译和自动摘要的发展现状
  • 斯坦福大学NLP课程笔记系列1:深度学习应用于NLP介绍
  • TensorFlow 实战 3层网络求解嵌入词向量,附代码详解

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-04-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序员郭震zhenguo 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
如何用简单易懂的例子解释隐马尔可夫模型?(进阶篇)
昨天通俗易懂的讲解了什么是HMM,没看的点这里。那么今天就来看看,具体理论是什么以及数学上怎么计算的呢?
zenRRan
2018/07/25
3520
如何用简单易懂的例子解释隐马尔可夫模型?(进阶篇)
用简单易懂的例子解释隐马尔可夫模型
隐马尔可夫(HMM)好讲,简单易懂不好讲。我希望我的读者不是专家,而是对这个问题感兴趣的入门者,所以我会多阐述数学思想,少写公式。霍金曾经说过,你多写一个公式,就会少一半的读者。所以时间简史这本关于物理的书和麦当娜关于性的书卖的一样好。我会效仿这一做法,写最通俗易懂的答案。 还是用最经典的例子,掷骰子。假设我手里有三个不同的骰子。第一个骰子是我们平常见的骰子(称这个骰子为D6),6个面,每个面(1,2,3,4,5,6)出现的概率是1/6。第二个骰子是个四面体(称这个骰子为D4),每个面(1,2,3,4)出现
AI研习社
2018/03/16
1.3K0
用简单易懂的例子解释隐马尔可夫模型
隐马尔可夫模型_基于hmm模型外汇预测
隐马尔科夫模型,Hidden Marcov Model,是可用于标注问题的统计学习模型,描述由隐藏的马尔科夫链随机生成观测序列的过程,属于生成模型,是一种比较重要的机器学习方法,在语音识别等领域有重要的应用。
全栈程序员站长
2022/11/11
5940
隐马尔可夫模型_基于hmm模型外汇预测
如何用简单易懂的例子解释隐马尔可夫模型?(入门篇)
因为文章总共超过5W字,所以我分为两部分,今天这是第一部分,先自己大致了解下什么是HMM,明天将会是具体的通俗公式讲解。加油,每天进步一丢丢O.O
zenRRan
2018/07/25
1.1K0
如何用简单易懂的例子解释隐马尔可夫模型?(入门篇)
一文搞懂HMM(隐马尔可夫模型)
什么是熵(Entropy) 简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化状态的一种度量。 熵最早来原于物理学. 德国物理学家鲁道夫·克劳修斯首次提出熵的概念,用来表示任何一种能量在空间中分布的均匀程度,能量分布得越均匀,熵就越大。 一滴墨水滴在清水中,部成了一杯淡蓝色溶液 热水晾在空气中,热量会传到
cloudskyme
2018/03/20
1.5K0
一文搞懂HMM(隐马尔可夫模型)
隐马尔可夫模型
原文地址:http://www.cnblogs.com/jacklu/p/6225073.html
用户7043923
2020/03/12
6520
隐马尔科夫模型(HMM)| 一个不可被忽视的统计学习模型 | 机器语音
小编最早接触隐马尔科夫模型(Hidden Markov Model,HMM),是利用HMM对机械设备的隐含退化状态进行建模、估计和预测,直观的感受是HMM的建模非常便利,可解释性很强,通用性强,缺点是对转移概率和观测概率估计学习时计算量较大,尤其是维数增多时易出现维数灾难问题,但随着DNN技术的发展和GPU计算能力的增强,计算能力已不再是HMM应用的瓶颈,HMM的能力将会得到充分的释放。
用户7623498
2020/08/04
1.7K0
隐马尔科夫模型(HMM)| 一个不可被忽视的统计学习模型 | 机器语音
《白话深度学习与Tensorflow》学习笔记(3)HMM RNN LSTM
RNN:循环神经网络 与CNN最大的不同是记忆暂存功能,可以把过去输入的内容所产生的远期影响量化后与当前时间输入内容一起反应到网络中参与训练。尤其是对时间序列、自然语言(上下文关系)的处理,具有优势。 马尔科夫链:在给定当前的知识或信息下,观测对象过去的历史状态对于将来的预测是无关的,只需要观测当前状态即可得出。 HMM:隐马尔可夫模型,隐马尔可夫链的模型相对简化,是贝叶斯信念的一个特例。 假如三个骰子,分别是正方体D6、四面体D4和八面体D8。 无序的扔这三个骰子,可能出现了一串序列,2,1,8。这就叫做
微风、掠过
2018/04/10
1.1K0
《白话深度学习与Tensorflow》学习笔记(3)HMM RNN LSTM
这是 隐马尔科夫模型(HMM) 的 2 个基本假设
上一篇 1个例子解释 隐马尔科夫模型(HMM) 的 5 个基本要素 说了隐马尔可夫模型 (HMM) 的参数,细分的话,包括 5 个基本要素:
double
2018/07/25
3.2K0
这是 隐马尔科夫模型(HMM) 的 2 个基本假设
NLP系列学习:前向算法和后向算法
在上一篇文章里,我们简单的概述了隐马尔科夫模型的简单定义 在这一篇文章里,我们可以看到HMM经过发展之后是CRF产生的条件,因此我们需要学好隐马尔科夫模型. 在这一部分,我比较推荐阅读宗成庆老师的<自
云时之间
2018/04/10
1.5K0
NLP系列学习:前向算法和后向算法
NLP硬核入门-隐马尔科夫模型HMM
(1)小明所在城市的天气有{晴天,阴天,雨天}三种情况,小明每天的活动有{宅,打球}两种选项。
zenRRan
2019/11/12
8400
机器学习算法(五)之隐马尔可夫算法理论
隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。
千与编程
2023/04/28
6130
机器学习算法(五)之隐马尔可夫算法理论
[白话解析]以水浒传为例学习隐马尔可夫模型
本文将尽量使用易懂的方式,尽可能不涉及数学公式,而是从整体的思路上来看,运用感性直觉的思考来解释隐马尔可夫模型。并且从名著中找了个具体应用场景来帮助大家深入这个概念。
罗西的思考
2020/09/07
7810
HMM(隐马尔可夫模型)
概率图用图的形式来表示概率分布:其中结点表示变量,结点之间直接相连的边表示相应变量之间的概率关系。
流川疯
2024/09/05
1510
HMM(隐马尔可夫模型)
【机器学习】隐马尔可夫模型
本文介绍了隐马尔可夫模型,首先介绍了隐马尔科夫模型定义,核心思想是引入了隐状态序列(引入隐状态是所有隐因子模型最巧妙的地方,如:隐因子分解,LDA),然后介绍了隐马尔科夫模型要解决的三个问题,1)在参数已知的情况下计算可观测序列的总概率,2)在给出观测序列数据时学习模型的参数,3)在参数已知的情况下通过维特比解码预测出所有产生可观测序列中概率最大的一条不可观测序列,即序列标注问题。
yuquanle
2020/02/21
1K0
Hidden Markov ModelHMM隐马尔科夫模型
等等,这种序列叫可见状态序列,但在HMM里面,还存在一个隐含状态链,比如这个状态链可能是
西红柿炒鸡蛋
2018/09/07
1K0
隐马尔科夫模型 和动态贝叶斯网络
(一):定义及简介: 介绍(introduction) 通常我们总是对寻找某一段时间上的模式感兴趣,这些模式可能出现在很多领域:一个人在使用电脑的时候使用的命令的序列模式;一句话中的单词的序列;口语中的音素序列。总之能产生一系列事件的地方都能产生有用的模式。 考虑一个最简单的情况:有人(柯南?)试图从一块海藻来推断天气的情况。一些民间的传说认为“soggy”的海藻意味着潮湿(wet)的天气,“dry”的海藻预示着晴朗(sun)。如果海藻处于中间状态“damp”,那就无法确定了。但是,天气的情况不可能严格的
机器学习AI算法工程
2018/03/12
4.5K0
隐马尔科夫模型 和动态贝叶斯网络
概率图模型笔记(PART II)隐马尔科夫模型
隐马尔科夫模型(Hidden Markov Model,以下简称HMM)是比较经典的机器学习模型了,它在语音识别,自然语言处理,模式识别等领域得到广泛的应用。那么什么样的问题需要HMM模型来解决,一般有以下两个特征: (1)我们的问题是基于序列的,比如时间序列,或者状态序列; (2)我们的问题中有两类数据,一类序列数据是可以观测到的,即观测序列;而另一类数据是不能观察到的,即隐藏状态序列,简称状态序列。
NewBeeNLP
2020/08/26
9590
概率图模型笔记(PART II)隐马尔科夫模型
NLP学习:隐马尔科夫模型(一)
在大学学习<概率论和数理统计>的时候,我们就已经学习过马尔科夫链,这里对于马尔科夫链就不多做赘述,而今天这一篇文章所要概括的是隐马尔科夫模型(HMM). ps:马尔科夫的彼得堡数学学派挺有意思,有兴趣的可以找一些相关资料拓展一下 一:隐马尔克夫模型应用 隐马尔科夫模型在语音识别上是一种非常成功的一种技术,在自然语言理解上已经运用的非常成熟,由于HMM的诸多优点,我们在以下几个领域应用后有了很不错的成绩: 1:分词处理 分词处理在我们生活中很常见,比如在一个句子中,每一个现在的词是HMM的一个状态,而词语的产
云时之间
2018/04/10
1.3K0
NLP学习:隐马尔科夫模型(一)
隐马尔可夫模型(HMM)
原文地址:http://www.cnblogs.com/jacklu/p/7753471.html
用户7043923
2020/03/12
1.1K0
相关推荐
如何用简单易懂的例子解释隐马尔可夫模型?(进阶篇)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档