极值理论对样本尾部分布的极值指数的估计方法主要有两类:半参数方法和全 参数方法,前者主要是基于分布尾部的 Hill 估计量,后者则主要基于广义帕累托分布(点击文末“阅读原文”获取完整代码数据)。
PSD锥(协方差矩阵的集合)的黎曼几何形状非常好理解,大家可以参考下面的两个课件:
本文包含一些直观的示例来说明 copula 理论的核心概念。以下是脚本及其各自用途的简短列表:
今天给大家介绍的是纽约大学于2021年5月26日发表在Nature Communications的一篇论文,作者引入了一个遮掩图模型(masked graph model,MGM),它通过捕获未观察到的节点(原子)和边(键)上的条件分布来学习图上的分布,通过迭代遮盖和替换初始化图的不同部分来训练并从中采样,并利用GuacaMol 分布学习基准评估QM9和 ChEMBL数据集上的表现。该模型优于先前提出的基于图的方法,并且与基于 SMILES 的方法可比。最后,作者展示了MGM模型生成具有指定属性所需值的分子,同时保持与训练分布的物理化学相似性。
以深度学习为代表的现代机器学习方法在预测和分类准确性上取得了巨大的成功。在机器学习中,典型的学习过程首先将可用的训练数据拆分为训练、验证和测试集,我们在训练集上训练模型,在验证集上验证超参数,在测试集上验证模型的性能。但是在实际应用中,性能良好的测试集模型将如何发挥作用?如果模型A在测试集上的性能优于模型B,这是否意味着在实际应用中A模型的效果更好?实际上有许多因素会影响模型的实际落地效果,如测试集的分布与模型训练数据存在分布差异,模型在预测或分类时是不可靠的,且这种误差不可评估。
最近我们被客户要求撰写关于极值理论EVT的研究报告,包括一些图形和统计输出。 “In cauda venenum”是您在极值理论一书中看到的第一句话:Laurens de Haan 和 Anna Ferreira 的介绍,这是关于您在应用 EVT 时将要处理的数据的性质的非常富有表现力的句子,极端数据通常具有更重要的尾部信息,反映真实行为
作者:Qiantong Xu、Gao Huang、Yang Yuan、Chuan Guo、Yu Sun、Felix Wu、Kilian Weinberger
【1】 Non-parametric estimation of cumulative (residual) extropy with censored observations 标题:删失观测值下累积(残差)外部性的非参数估计 链接:https://arxiv.org/abs/2108.06324
假设随机变量X的分布函数是已知的,但是它的一个或多个参数未知,需要借助总体的一个样本来对总体参数进行估计,就是参数估计问题。
【1】 Estimating effects within nonlinear autoregressive models: a case study on the impact of child access prevention laws on firearm mortality 标题:估计非线性自回归模型的效应:儿童接触防护法对枪支死亡率影响的案例研究 链接:https://arxiv.org/abs/2109.03225
生成对抗网络(GAN)[Hong et al., 2017] 是生成模型的一大类别,两个竞争的神经网络——鉴别器 D 和生成器 G 在其中玩游戏。训练 D 用于分辨数据的真假,而 G 用于生成可以被 D 误识别为真数据的假数据。在 Goodfellow 等 [2014] 提出的原始 GAN(我们称之为标准 GAN,即 SGAN)中,D 是分类器,用于预测输入数据为真的概率。如果 D 达到最佳状态,SGAN 的损失函数就会近似于 JS 散度(Jensen–Shannon divergence,JSD)[Goodfellow et al., 2014]。
---- 新智元编译 来源:arxiv.org 翻译:肖琴 【新智元导读】图像合成是计算机视觉中的一个重要问题。谷歌大脑的Ian Goodfellow等人在他们的最新研究中提出“自注意力生成对抗网络”(SAGAN),将自注意力机制引入到卷积GAN中,作为卷积的补充,在ImageNet多类别图像合成任务中取得了最优的结果。 论文地址:https://arxiv.org/pdf/1805.08318.pdf 图像合成(Image synthesis)是计算机视觉中的一个重要问题。随着生成对抗网络(GAN
来源 | 新智元 编译 | 肖琴 出品 | 磐创AI技术团队 【磐创AI导读】:本文授权转载自新智元,主要介绍了一种“自注意力生成对抗网络”(SAGAN)。欢迎大家点击上方蓝字关注我们的公众号:磐创AI。 【介绍】图像合成是计算机视觉中的一个重要问题。谷歌大脑的Ian Goodfellow等人在他们的最新研究中提出“自注意力生成对抗网络”(SAGAN),将自注意力机制引入到卷积GAN中,作为卷积的补充,在ImageNet多类别图像合成任务中取得了最优的结果。(论文地址:https://arxiv.org/p
正如您现在听说的那样,生成对抗网络是一种能够从生成器和鉴别器之间的竞争中学习分布的框架。生成器学习生成希望与真实数据无法区分的样本,而鉴别器学习分类给定图像是真实的还是虚假的。自 GAN 发明以来,它们经历了各种改进,被认为是用于各种问题的强大工具,尤其是在生成和重建任务中。
极大似然估计(Maximum likelihood estimation, 简称MLE)是很常用的参数估计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出现了,那么可以认为实验条件对A的出现有利,也即出现的概率P(A)较大。也就是说,如果已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。极大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值(请参见“百度百科”)。
当前教程特别关注贝叶斯逻辑回归在二元结果和计数/比例结果场景中的使用,以及模型评估的相应方法。使用教育数据示例。 此外,本教程简要演示了贝叶斯 GLM 模型的多层次扩展。
Fréchet distance(弗雷歇距离)是法国数学家Maurice René Fréchet在1906年提出的一种路径空间相似性计算方法。
在Stata的实现中,可以使用鲁棒选项,当残差方差不恒定时,可以使用常规线性回归。使用稳健选项不会更改参数估计值,但使用三明治方差估计器计算标准误差(SE)。在这篇文章中,我将简要介绍使用稳健的区间回归的基本原理,并强调如果残差方差不是常数,与常规线性回归不同,则区间回归估计是有偏差的。
本教程使用R介绍了具有非信息先验的贝叶斯 GLM(广义线性模型) ( 点击文末“阅读原文”获取完整代码数据******** ) 。
研究黄金价格的动态演变过程至关重要。文中以黄金交易市场下午定盘价格为基础,帮助客户利用时间序列的相关理论,建立了黄金价格的ARMA-GARCH模型,并对数据进行了实证分析,其结果非常接近。利用该模型可动态刻画黄金价格数据的生成过程,也可帮助黄金产品投资者和生产者做出更加灵活、科学的决策。
来源:DeepHub IMBA本文约2000字,建议阅读5分钟核密度估计是一种非参数统计方法,用于估计数据样本背后的概率密度函数。 在20世纪,统计学还处于起步阶段计算机还不是那么流行的时候,假设正态分布是生成数据的标准。这主要是因为在那个所有结果都是手工计算的时代,正态分布可以使计算不那么繁琐。 但在这个大数据时代,随着计算能力的提高,数据的可用性使得统计学家采用了更现代的技术——非参数统计。这里我们将讨论一种这样的方法来估计概率分布,核密度估计。 n个随机变量服从分布函数F。对数据的假设越多,我们就
在关联分析的结果中,对于odd ratio值会给出95% CI的结果,这里的CI其实是confidence interval的缩写,代表置信区间。那么置信区间有什么用呢?
小编有幸参加到以色列理工的暑期交流项目中,并选择了《机器学习导论》这门经典课程,进行再次学习并回顾知识点查缺补漏; 既然是作为导论,国外的课程和国内的课程的区别在哪里?我觉得很重要的两点是:逻辑性和学习性。 很多在国外交流过的同学,或者看过国外大学视频的同学应该都有一些体会,逻辑性在于课程如何引入很重要;主要是通过一两句简单的概述,让学生明白这门课最基础的内容和最实用的应用,然后逐步递推,从example到general,再到general解决不了的special case,然后再次improved gen
http://www.tensorinfinity.com/paper_171.html
以下,全部来自老师最后一节课划重点时停留的当页ppt(复习到了但没考不要怪我,学了总有用;考了没复习到不要怪我,本文仅供参考)。
选自Medium 作者:Akihiro Matsukawa 机器之心编译 参与:Geek.ai、刘晓坤 本文以简单的案例,解释了最大似然估计、最大后验估计以及贝叶斯参数估计的联系和区别。 假如你有一个
在前两篇文章中,我们已经大致的讲述了关于EM算法的一些基本理论和一些基本的性质,以及针对EM算法的缺点进行的优化改进的新型EM算法,研究之后大致就能够进行初步的了解.现在在这最后一篇文章,我想对EM算
大型语言模型(LLM)已被证明能够从自然语言中生成代码片段,但在应对复杂的编码挑战,如专业竞赛和软件工程专业面试时,仍面临巨大的挑战。最近的研究试图通过利用自修复来提高模型编码性能。自修复是指让模型反思并纠正自己代码中的错误。
📚 文档目录 随机事件及其概率 随机变量及其分布 期望和方差 大数定律与中心极限定理 数理统计的基本概念 参数估计 假设检验 多维 回归分析和方差分析 降维 9.1 回归分析 9.1.1 相关性分析 皮尔逊 (Pearson) 相关系数. \bar X,\bar Y 为样本均值, s_x,s_y 是样本方差. Pearson 相关系数用于度量两个随机变量 X,Y 的线性关系. 可近似估计 \rho . 取值范围: [-1,1] , 绝对值越接近 1 , 则线性关系越强. 对称性. 原
【导读】主题链路知识是我们专知的核心功能之一,为用户提供AI领域系统性的知识学习服务,一站式学习人工智能的知识,包含人工智能( 机器学习、自然语言处理、计算机视觉等)、大数据、编程语言、系统架构。使用请访问专知 进行主题搜索查看 - 桌面电脑访问www.zhuanzhi.ai, 手机端访问www.zhuanzhi.ai 或关注微信公众号后台回复" 专知"进入专知,搜索主题查看。今天给大家继续介绍我们独家整理的机器学习——贝叶斯参数估计方法。 这次介绍一下机器学习中常见的参数估计方法,这对推断模
在前两篇文章中,我们已经大致的讲述了关于EM算法的一些基本理论和一些基本的性质,以及针对EM算法的缺点进行的优化改进的新型EM算法,研究之后大致就能够进行初步的了解.现在在这最后一篇文章,我想对EM算法的应用进行一些描述:
假如你有一个硬币。你把它投掷 3 次,出现了 3 次正面。下一次投掷硬币正面朝上的概率是多少? 这是一个从数据中估计参数的基础机器学习问题。在这种情况下,我们要从数据 D 中估算出正面朝上 h 的概率
Linear Mixde Model, 简称LMM, 称之为线性混合模型。从名字也可以看出,这个模型和一般线性模型有着很深的渊源。
为了帮助客户使用POT模型,本指南包含有关使用此模型的实用示例。本文快速介绍了极值理论(EVT)、一些基本示例,最后则通过案例对河流的极值进行了具体的统计分析
由线性回归(一)^1,我们通过数学中的极值原理推导出了一元线性回归的参数估计和多元线性回归的参数估计的拟合方程计算方法。同时为了检验拟合质量,我们引入了两种主要检验:
📚 文档目录 随机事件及其概率 随机变量及其分布 期望和方差 大数定律与中心极限定理 数理统计的基本概念 参数估计 假设检验 多维 回归分析和方差分析 降维 7.1. 假设检验 7.1.1. 假设检验问题 参数估计:讨论如何根据样本得到总体分布所含参数的优良估计. 假设检验:讨论怎样在样本的基础上观察上面所得到的估计值与真实值之间在统计意义上相拟合,从而做出一个有较大把握的结论. 例子: 设菜厂生产一种灯管,其寿命X \sim \mathrm{N}(\mu, 40000), 从过去较长一段 时间的生产情况
岭回归分析是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,它是通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的耐受性远远强于最小二乘法。
本文的诞生是由于一个朋友在做科研时遇到的一个场景所引出的,场景是这样的: 已知有两组变量X和Y,每组变量都是已知其边缘分布概率密度函数的(比如一组满足正态分布,一组满足对数正态分布),且这两组变量是一定存在相关性的,如何求它们的联合分布函数或联合概率密度函数呢?
极大似然估计(Maxinum Likelihood Estimation):利用总体的分布密度或概率分布的表达式及其样本所提供的信息求未知参数估计量的一种方法.
在做比赛的过程中,我们发现了有转化率这个指标在大量数据下是有效的。理想情况下,例如某个广告点击量是10000次,转化量是100次,那转化率就是1%。但有时,例如某个广告点击量是2次,转化量是1次,这样算来转化率为50%。但此时这个指标在数学上是无效的。因为大数定律告诉我们,在试验不变的条件下,重复试验多次,随机事件的频率近似于它的概率。后者点击量只有2次,不满足“重复试验多次”的条件。
中国教科书中通常首先学习导数,例如中学时期的切线方程,函数单调性,零值点和极值点个数等等,而直到大学时期才引入微分的概念,导致大多数人通常并不了解微分和导数之间的关系。
上面的引子挺有道理,不管是写论文还是学知识,感觉都是这个理。学校模式识别课第一部分讲贝叶斯决策,感觉有的人学的稀里糊涂,没把知识串起来,当然实验也不会做。其实挺简单的,做个简单总结吧。
在实际情况中,往往会遇到未观测变量,未观测变量的学名是隐变量(latent variable)。令X表示已观测变量集,Z表示隐变量集,
那从今天开始,我预计会陆陆续续出一些内容,来论述各个算法的基础核心点,大家感兴趣可以关注起来。
这是一篇本应早就写完的博客文章。一年前我写了一篇文章,关于在 R 中估计 GARCH(1, 1) 模型参数时遇到的问题。我记录了参数估计的行为(重点是 β ),以及使用 fGarch 计算这些估计值时发现的病态行为。我在 R 社区呼吁帮助,包括通过 R Finance 邮件列表发送我的博客文章。
跳跃扩散过程为连续演化过程中的偏差提供了一种建模手段。但是,跳跃扩散过程的微积分使其难以分析非线性模型。本文开发了一种方法,用于逼近具有依赖性或随机强度的多变量跳跃扩散的转移密度。通过推导支配过程时变的方程组,我们能够通过密度因子化来近似转移密度,将跳跃扩散的动态与无跳跃扩散的动态进行对比。在这个框架内,我们开发了一类二次跳跃扩散,我们可以计算出对似然函数的精确近似。随后,我们分析了谷歌股票波动率的一些非线性跳跃扩散模型,在各种漂移、扩散和跳跃机制之间进行。在此过程中,我们发现了周期性漂移和依赖状态的跳跃机制的依据。
原文转自:http://hi.baidu.com/leifenglian/item/636198016851cee7f55ba652
领取专属 10元无门槛券
手把手带您无忧上云