Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >协方差公式推导_二维正态分布cov协方差公式

协方差公式推导_二维正态分布cov协方差公式

作者头像
全栈程序员站长
发布于 2022-11-03 07:17:33
发布于 2022-11-03 07:17:33
2.8K0
举报

协方差公式推导

cov(X,Y)=∑ni=1(Xi−X¯)(Yi−Y¯)n=E[(X−E[X])(Y−E[Y])]

cov(X,Y)=\frac{\sum_{i=1}^{n}(X_i-\bar{X})(Y_i-\bar{Y})}{n}=E[(X-E[X])(Y-E[Y])]

=E[XY−E[X]Y−XE[Y]+E[X]E[Y]]

=E[XY-E[X]Y-XE[Y]+E[X]E[Y]] 因为均值计算是线性的,即(a和b均为常数):

E[aX+bY]=aE[X]+bE[Y]

E[aX+bY]=aE[X]+bE[Y] 则我们有:

E[XY−E[X]Y−XE[Y]+E[X]E[Y]]

E[XY-E[X]Y-XE[Y]+E[X]E[Y]]

=E[XY]−E[X]E[Y]−E[X]E[Y]+E[X]E[Y]

=E[XY]-E[X]E[Y]-E[X]E[Y]+E[X]E[Y]

=E[XY]−E[X]E[Y]

=E[XY]-E[X]E[Y]

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/201120.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年10月22日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
数理统计----协方差公式推导
协方差公式推导 cov(X,Y)=∑ni=1(Xi−X¯)(Yi−Y¯)n=E[(X−E[X])(Y−E[Y])] cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n=E[(X−E[X])(Y−E[Y])]
葆宁
2019/06/14
2.9K0
离散均匀分布的期望和方差(均值和方差的性质)
E [ g ( x ) ] = { ∑ i g ( x i ) p ( x i ) , 离散场合 ∫ − ∞ ∞ g ( x ) p ( x ) d x , 连续场合 E[g(x)]=\begin{cases}\sum\limits_ig(x_i)p(x_i),&\text{离散场合} \\ \\ \int_{-\infty}^\infty{g(x)p(x)\mathrm{d}x},&\text{连续场合}\end{cases} E[g(x)]=⎩⎪⎪⎨⎪⎪⎧​i∑​g(xi​)p(xi​),∫−∞∞​g(x)p(x)dx,​离散场合连续场合​
全栈程序员站长
2022/07/28
1.8K0
[scikit-learn 机器学习] 2. 简单线性回归
1. 简单线性回归 import numpy as np import matplotlib.pyplot as plt X = np.array([[6],[8],[10],[14],[18]])
Michael阿明
2020/07/13
8800
[scikit-learn 机器学习] 2. 简单线性回归
【概率论与数理统计(研究生课程)】知识点总结4(随机变量的数字特征)
版本:1.0.1 最后更新时间:2022年11月10日 09:07 修改次数:1 历史修改内容: 1.0.1:随机变量函数的期望公式
Marigold
2023/08/23
3230
【概率论与数理统计(研究生课程)】知识点总结4(随机变量的数字特征)
【概率论与数理统计(研究生课程)】知识点总结11(多元统计分析基本概念)
设X=(X_1, X_2,\cdots,X_p)^\top有p个分量,若E(X_i)=\mu_i(i=1,2,\cdots,p)存在,定义随机向量X的均值为: 式中,\vec{\mu}为一个p
Marigold
2023/08/23
4120
通俗解释协方差与相关系数
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/red_stone1/article/details/82754517
红色石头
2019/05/25
1.8K0
方差、协方差、标准差、均方差、均方根值、均方误差、均方根误差对比分析[通俗易懂]
本文由博主经过查阅网上资料整理总结后编写,如存在错误或不恰当之处请留言以便更正,内容仅供大家参考学习。
全栈程序员站长
2022/11/11
8.6K0
方差、协方差、标准差、均方差、均方根值、均方误差、均方根误差对比分析[通俗易懂]
理解主成分分析
在现实世界的数据分析任务中,我们面对的数据通常较为复杂,例如多维数据。我们绘制数据并希望从中找到各种模式,或者使用数据来训练机器学习模型。一种看待维度(dimensions)的方法是假设你有一个数据点 xxx,如果我们把这个数据点想象成一个物理对象,那么维度就是仅仅是一个视图(译者注:这里的视图应该是和三视图中的视图是一个概念)的基础(basis of view),就像从横轴或者纵轴观察数据时的位置。
Alan Lee
2019/05/28
7560
概率论协方差_均值方差协方差公式
  方差的代数意义很简单,两个数的方差就是两个数差值的平方,作为衡量实际问题的数字特征,方差有代表了问题的波动性。
全栈程序员站长
2022/09/20
1.4K0
Pytorch-BN层详细解读
机器学习领域有个很重要的假设:独立同分布假设,即假设训练数据和测试数据是满足相同分布的。我们知道:神经网络的训练实际上就是在拟合训练数据的分布。如果不满足独立同分布假设,那么训练得到的模型的泛化能力肯定不好。
全栈程序员站长
2022/11/04
9540
概率和分布
概率空间:sample space,events space和probability function
esse LL
2024/08/07
1410
协方差详解
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
Steve Wang
2019/10/22
1.3K0
协方差详解
ProbabilityTheory
6.相关系数 $\rho_{XY}=\frac{Cov(X,Y)}{\sqrt{D(X)}\sqrt{D(Y)}}$
DuncanZhou
2018/09/04
4060
数据科学基础(三) 期望和方差
📚 文档目录 随机事件及其概率 随机变量及其分布 期望和方差 大数定律与中心极限定理 数理统计的基本概念 参数估计 假设检验 多维 回归分析和方差分析 降维 3.1 数学期望 3.1.1 离散型数据的数学期望 P(X=x_k)= p_k, 若 \sum^\infty_{k=1}x_kp_k 绝对收敛,则 E(X)=\sum^\infty_{k=1}x_kp_k.注意:数学期望不一定均存在. 3.1.2 连续型数据的数学期望 X 的密度函数为 f(x),\int_{-\infty}^{\infty}xf(x)
Rikka
2022/01/19
7590
主成分分析(Principal Component Analysis,PCA)
)个主成分(线性无关变量)来代替m个原有变量(线性相关变量),使问题得以简化,并能保留原有变量的大部分信息(原有变量的方差)。
Michael阿明
2020/07/13
9670
主成分分析(Principal Component Analysis,PCA)
概率论基础 - 4 - 协方差、相关系数、协方差矩阵
本文介绍协方差。 协方差 协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。 —— 百度百科 定义 在概率论和统计学中,协方差用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。 期望值分别为E[X
为为为什么
2022/08/05
1.4K0
概率论基础 - 4 - 协方差、相关系数、协方差矩阵
PCA降维
在机器学习中经常会碰到一些高维的数据集,而在高维数据情形下会出现数据样本稀疏,距离计算等困难,这类问题是所有机器学习方法共同面临的严重问题,称之为“ 维度灾难 ”。另外在高维特征中容易出现特征之间的线性相关,这也就意味着有的特征是冗余存在的。基于这些问题,降维思想就出现了。
范中豪
2019/09/05
9990
PCA降维
统计力学中的概率论基础(一)
统计力学是一门通过粒子的纯粹微观量来表示系统宏观量的学科,从统计分布出发,用无偏/有偏估计来研究各种不同的系综。本文内容部分参考自郑伟谋老师所著《统计力学导引》,主要介绍其中概率论基础的部分。但因为大多是个人的理解,如有差错,与参考文献作者无关。
DechinPhy
2024/05/15
1810
常见的机器学习&数据挖掘数学知识点
常见的机器学习&数据挖掘数学知识点之Basis SSE(Sum of Squared Error, 平方误差和) SSE=∑i=1n(Xi−X¯¯¯)2 SAE(Sum of Absolute Error, 绝对误差和) SAE=∑i=1n|Xi−X¯¯¯| SRE(Sum of Relative Error, 相对误差和) SRE=∑i=1nXi−X¯¯¯X¯¯¯ MSE(Mean Squared Error, 均方误差) MSE=∑ni=1(Xi−X¯¯¯)2n RMSE(Root M
机器学习AI算法工程
2018/03/13
1.9K0
常见的机器学习&数据挖掘数学知识点
皮尔森类似度(Pearson Similiarity)计算举例与数学特性和存在问题
皮尔森相关系数(Pearson correlation coefficient)也叫皮尔森积差相关系数(Pearson product-moment correlation coefficient),是用来反应两个变量相似程度的统计量。或者说可以用来计算两个向量的相似度(在基于向量空间模型的文本分类、用户喜好推荐系统中都有应用)。 皮尔森相关系数计算公式如下: ρX,Y=cov(X,Y)σXσY=E((X−μX)(Y−μY))σXσY=E(XY)−E(X)E(Y)E(X2)−E2(X)√E(Y2)−E2(Y)√ρX,Y=cov(X,Y)σXσY=E((X−μX)(Y−μY))σXσY=E(XY)−E(X)E(Y)E(X2)−E2(X)E(Y2)−E2(Y)\rho_{X,Y}=\frac{cov(X,Y)}{\sigma_{X}\sigma_{Y}}=\frac{E((X-\mu_X)(Y-\mu_Y))}{\sigma_{X}\sigma_{Y}}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}\sqrt{E(Y^2)-E^2(Y)}} 分子是协方差,分母是两个变量标准差的乘积。显然要求X和Y的标准差都不能为0。
学到老
2019/01/25
8.2K0
皮尔森类似度(Pearson Similiarity)计算举例与数学特性和存在问题
推荐阅读
相关推荐
数理统计----协方差公式推导
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档