前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LeCun高徒超详笔记曝光,Meta世界模型首揭秘!首个「类人」模型怎么来的?

LeCun高徒超详笔记曝光,Meta世界模型首揭秘!首个「类人」模型怎么来的?

作者头像
新智元
发布于 2023-08-05 09:36:02
发布于 2023-08-05 09:36:02
3690
举报
文章被收录于专栏:新智元新智元

新智元报道

编辑:编辑部

【新智元导读】LeCun的高徒费心整理了全套笔记,把他去年在暑假学校演讲世界模型的精华部分全部囊括。这不得好好拜读下?

LeCun究竟是经过了怎样的思考,才得出了世界模型是AI大模型未来最理想道路的结论?

很幸运,去年曾听过他在暑假学校关于统计物理和机器学习演讲的学生Ania Dawid,将他的观点仔细地整理和发表出来。

LeCun对于她的工作也表示了盛赞。

这篇笔记解释了当前机器学习方法的局限性,并且介绍了LeCun在2022年的论文<A Path Towards Autonomous Machine Intelligence>中提出的autonomous AI所需的核心概念,以及设计背后的主要思想。

论文地址:https://arxiv.org/abs/2306.02572

类人智能的可能性

在AI达到类人水平并带来新的技术革新之前,当前的自动化系统仍然有重大的局限性。

最理想的情况下,会出现L5自动驾驶、家用机器人、虚拟助理,这些机器人会学习可靠的世界模型,然后进行推理,对复杂的行动序列做出计划。

在这些笔记中,Ania Dawid总结了LeCun提出未来自主智能架构背后的主要思想,引入了基于能力的潜变量模型,在LeCun建议构建的模块——分层联合嵌入预测架构(H-JEPA)中结合了它们的优势。

在过去十年中,机器学习方法迅速普及,ML模型在围棋、国际象棋和Shogi等战略游戏中都表现出了专家级的性能。

作为交换,创建深度学习模型需要在大量数据集上训练,这是一种极端的计算成本。

相比之下,人类的学习却十分高效,我们可以快速直观地找到方法来完成任务,连婴儿都能很快获得对物理世界的直观理解。

如何让AI模型发展出像人类一样的潜能?在这些课堂讲稿中,LeCun与学生们探索了autonomous intelligence的概念。

他们希望能够实现一个充分自主的AI,他通过转移知识和自动适应新情况而在通用任务上表现良好,无需首先尝试很多解决方案。

自主机器智能

当前机器学习的局限性

到目前为止,机器学习系统仍然在很大程度上依赖于SL,这就需要大量的标记样本,而RL需要大量的试验,这在当前的现实中不切实际。在现实世界中,每个行动都需要时间和成本。

相比之下,人类和动物主要依靠对环境的积极观察,并以此建立世界模型。

婴儿就几乎完全通过观察来学习,他们的学习过程与SSL最相似,只有一点点SL(和家长互动)或RL(通过实践尝试各种解释方案)。

实际上,人类是想象和推演大部分结果,而不是全部尝试一遍。

因此,实现完全自主类人智能的道路主要有三个挑战:

1.学习世界的表征和预测模型,使AI系统能够预测未来,特别是自己行动会导致的结果。

最有可能的方法就是自监督学习(SSL),因为SL和RL需要太多的成本或试验。

2.学习以一种与DL兼容的方式推理。推理需要考虑到与前馈潜意识计算相反的意图。最可能的方法就是像energy minimization那样设计推理和规划。

3.学习规划复杂动作序列,这个过程中需要行动计划的分层(hierarchical)表征。

自主智能的新范式

在论文中,LeCun提出了自主AI应该有的模块化结构。

这个AI架构由多个相互连接的模块组成。

Perception模块估计世界的当前状态,actor可以使用该状态,并在world model的指导下提出最佳动作序列,根据actor的动作预测或「想象」未来可能的世界状态。

这些联系被称为「感知-计划-行动循环」。

在想象actor行为的可能后果时,世界模型使用cost推理模块。

它可以分成两个子模块——对痛苦、快乐、饥饿等基本需求进行建模的intrinsic cost,以及预测内在成本未来值的critic。

Short-term memory模块用于预测未来世界状态。Configurator模块通过配置所有其他模块来实现任务之间的切换。

a.在SSL中,系统经过训练,可以从输入的可见部分(蓝色)预测输入的隐藏部分(橙色)。b. SSL将在未来的AI系统中发挥核心作用,SSL是蛋糕,SL是糖衣,RL是樱桃

模型中的「感知-计划-行动循环」类似于最优控制中的model-predictive control(MPC)。关键的区别在于,世界模型预测未来是通过学习。

它也不同于RL,因为在这里成本函数是已知的,所有模块都是可微的,在现实中不需要采取行动。

自监督学习与不确定性表征

自监督学习的主要目的,就是重建输入或预测输入的缺失部分,如上图a所示。

输入可以是图像、视频或文本。在训练中,模型学习数据的分层表征,因此,SSL的预训练通常先于SL或RL阶段。

它还用于学习预测(前向)模型MPC,或者学习控制策略,或基于模型的RL。

自监督学习对于文本非常有效,但对于图像来说,当模型被训练进行单一预测时,训练使它们预测的是所有可能的平均值,因此,SSL产生了模糊的预测。

不过,做决定通常不需要预测世界上所有可能的细节,只需要预测与任务相关的细节即可。

基于能量的模型

概率模型需要规范化,因此在高维数据的限制下,可能变得难以处理。

然而,在驾驶汽车的决策任务中,系统只需要选择正确的答案,其他答案的概率是无关紧要的。

因此,我们可以让模型通过能量函数来表示变量之间的依赖关系(例如下图a所示的决策y和条件x)。

在这种情况下,能量指导模型只需要将最低的能量分配给正确的答案,将较大的能量分配给不正确的答案即可。

图b中的能量函数,表示了x和y之间的二次依赖关系。推理涉及为给定的x找到最小能量值。

EBM的一个优点是,可以表示多模态的依赖关系。理论上,还可以以各种形式(文本、视觉等)描述数据之间的依赖关系。

基于能量的模型与概率模型

在概率设置中,训练包括找到这样的模型参数w,使给定输入的观察输出的可能性最大(或负可能性最小)。

第一个等式是基于数据点之间相互独立的假设,而进行第二个变换,是因为求和计算比乘法计算更容易。

对于概率模型,训练仅限于从负对数似然(如交叉熵)生成的损失函数。

虽然放弃概率设置可能会令人惊讶,但请注意,做决策可以被视为选择得分最高的选项,而不是最有可能的选项。

比如在下棋的时候,如果查看所有可能性来决定下一步怎么走,显然非常棘手。

相反,可以通过探索可能性树的一部分,比如用蒙特卡洛树搜索的最短路径,给出最小能量。

因此,没有必要使用概率框架。

不过,如果需要的话,也可以通过将能量考虑为非归一化的负对数概率,在EBM和概率模型之间建立联系。

最常见的方法是通过Gibbs-Boltzmann distribution:

基于隐变量能量的模型

通过使用依赖于一组潜变量z的额外能量函数,我们可以扩展EBM的可能性。

这些隐藏变量通常被称为潜变量(latent variables),旨在捕捉在x中无法直接获得的y的信息。

人脸检测任务中,这些潜变量的示例可能是性别、姿势或发色。

在自动驾驶汽车的情况下,潜变量可以参数化其他驾驶者的可能行为。

因此,它们为我们处理现实世界的不确定性提供了一种方法。

在结构化预测问题中,我们假设数据具有一些未知的结构,学习器必须解析这些结构才能进行准确的预测

最后,潜变量在所谓的结构化预测问题中非常有用。

a.潜变量推断EBM还包括潜变量的最小化(或边缘化)。b. 一个潜变量EBM的例子,在寻找绿色点y和椭圆距离的问题中,它会从训练点(蓝点)学习

训练基于能量的模型

到目前为止,我们已经讨论了如何使用EBM,特别是潜变量EBM进行推理。

在本节中,我们将介绍如何训练EBM。

训练技术的选择,取决于EBM架构的选择。

让我们比较下图中的两种EBM架构。

能量模型(EBM)可能会发生能量崩溃。(a)标准的确定性预测或回归架构,其中能量函数Fw(x, y)是x的神经网络预测与y本身之间的距离,不容易发生能量崩溃。(b)一个可能发生能量崩溃的EBM示例

在第一种情况下,能量函数只是数据点y和数据点x的编码器(如NN)输出之间的距离。

这种架构可以被认为是一个回归模型,并通过简单地最小化训练样本的能量来训练。

然而,对于其他架构,这样的训练可能会导致能量函数的崩溃,即给定一个x,能量(energy)可能会变得「平坦」,为 y 的所有值提供基本相同的能量。

例如,图b中的联合嵌入架构,将输入x和y分别编码为

,目标是找到这样的

,这样它们的x和y的表示就是接近的。

如果我们训练模型只是为了最小化编码器输出之间的距离,那么两个编码器可能会完全忽略输入而只产生相同的恒定输出。

对比式方法

为了防止能量崩溃,我们可以采取对比式方法。

x和y是我们希望降低能量的训练数据点,在下图b中表示为蓝点。

ˆy是一个对比点,在下图b中表示为绿点,我们需要增加其能量。

能量模型(EBM)的训练:(a) 正确的训练方式在最小化训练样本的能量的同时防止能量崩溃。(b) 对比式方法通过最小化训练样本的能量同时增加训练集之外样本的能量。(c) 正则化方法限制了低能量区域所占据的空间体积

当最小化

时,我们需要确保训练样本的能量雄安与训练样本和对比样本的能量,至少是边际m,这取决于y和ˆy之间的距离。

适当的对比损失函数需要确保非零边界,以避免能量崩溃。

对比损失函数可以像下面这个方程中的铰链损失,那样针对特定数据集进行成对计算。

对比性方法最核心的问题是如何生成对比性点,然后最大可能性就可以被解释为对比方性方法的特例。

架构方法和正则化方法

我们的主要挑战在于,选择如何限制低能量空间的体积。

一种方法是构建低能量空间体积受限的体系结构。

另一种方法是添加一个正则化项,该项最小化低能量空间的某种度量。

最后,评分匹配(score matching)是一种正则化技术,它最小化数据点周围能量景观的梯度并最大化曲率。

几个能量模型的实例

Hopfield网络

Hopfield网络网络是由John Hopfield在1982年推广的全连接循环网络,方案如图a所示,能量函数如下:

但是因为它会出现虚假最小值,使得在实践中可用性不强。

玻尔兹曼机

在1983年,由Geoffrey Hinton和Terrence Sejnowski提出了Hopfield网络的扩展,称为玻尔兹曼机。

它引入了被称为隐藏单元的神经元,如下图7(b)所示。

它的能量函数及其自由能如下:

这个提议对整个机器学习社区来说非常重要,因为它首次引入了隐藏单元的概念,即那些输入和输出不可观测的神经元。

这些隐藏单元也可以理解为模型的潜变量。

去噪自编码器

去噪自编码器(Denoising Autoencoder,AE)是一种对比式EBM。

它是一种经过训练的自编码器,用于恢复被损坏输入的干净版本。

其架构示意图如下图8(a)所示。

例如,该自编码器可以经过训练,使数据点在添加随机噪声后恢复到其原始位置,如图8(b)所示。

原始数据点来自橙色螺旋线,并通过在其位置上添加一些噪声进行损坏。

然后,将损坏的绿色数据点作为x输入到下图8(a)中的去噪自编码器,同时提供其干净版本y。

重构误差是损坏点与原始点之间的距离,当最小化时,去噪自编码器输出的蓝色数据点将回到螺旋线上。

需要注意的是,在同一个问题中,也存在对于去噪自编码器可能无法处理的问题点。例如,自编码器无法重构位于螺旋线两个分支之间、与它们等距离的数据点。

这个问题是由数据的折叠结构导致的,然而,在真实世界的数据中很少出现这种情况。

未来自主系统的构建模块

在上文中,我们看到了EBM如何克服概率模型的局限性之后,并且对于高维数据,可能应该使用正则化方法而不是对比式方法来训练它们。

讨论了潜变量模型并解释了它们在结构化预测问题或融入不确定性方面的用途之后,可以这些优势结合到一种称为联合嵌入预测架构(JEPA)的架构中。

这就是昨天Meta发布的I-JEPA模型的原理。

联合嵌入预测架构

联合嵌入预测架构(JEPA)是一种将嵌入模块与潜变量结合的EBM,如图9所示。

作为一个EBM,JEPA学习输入数据x和y之间的依赖关系,但是在学习的内部表示Sx和Sy的层次上进行比较,其中si = Enc(i)。

产生表示sx和sy的两个编码器可以不同,特别是具有不同的架构,并且不共享参数。

由于这一点,输入数据可以具有各种格式(例如视频和音频)。

此外,JEPA自然地处理多模态数据。

首先,x和y的编码器可以具有不变性特性,例如,将各种y映射到相同的Sy。

训练JEPA的最终目标是使表示Sx和Sy可以相互预测。

如我们在第4节中讨论的,EBM可以使用对比式方法和正则化方法进行训练,但对比式方法在高维情况下往往效率非常低下。

因此,JEPA可以使用损失函数进行训练,该损失函数除了包括预测误差外,还包括如下图10所示的正则化项。

特别是为了防止信息能量崩溃,我们需要确保sx和sy尽可能多地携带关于x和y的信息。

否则,训练过程可能会导致编码器成为常数。

最后,我们需要最小化或限制潜变量的信息内容,以防止模型仅仅依赖于其中的信息。

结论

在笔记中,我们总结了LeCun的主要观点,解决了上边提到的AI现在发展中的局限性。

在第3节中,我们解释了由于现实世界的数据(如视频或文本)通常具有高维度,基于能量模型的发展方向(EBM)可能是比概率模型更有前景的发展方向。

在第4节中,我们介绍了对训练EBM的对比和正则化方法,并解释了由于在高维度中生成对比样本的成本巨大,正则化方法似乎更有前景用于训练未来的EBM。

在第5节中,我们给出了EBM的历史和现实的实际用例。

最后,第6节集中讨论了这个事实:人类决策过程基于各种格式和模态的数据,其结构通常需要解码才能进行预测,而且还包含可能是多余的信息。

这种多模态的障碍可以通过LeCun提出的一种新架构,在3个维度解决,这种构架被称为联合嵌入预测架构(JEPAs)。

最终,我们将要面对的挑战是使未来的自主AI能够对各种时间尺度和抽象级别上的世界状态进行预测。这种多层次的预测可以通过分层联合嵌入预测架构(H-JEPA)来实现。

通过正则化方法训练的这种架构,可能是设计能够在不确定性下的预测世界模型的起点,这将成为未来自主AI发展中取得突破

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-06-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Yann LeCun最新访谈:能量模型是通向自主人工智能系统的起点
大数据文摘授权转载自AI科技评论 来源:ZDNet 编译:钱磊 编辑:陈彩娴 继自监督学习之后,Yann LeCun 在接受 ZDNet 的最新访谈中又着重探讨了他在几年前曾大篇幅推崇的概念:「能量模型」(energy-based models)。 什么是能量模型? Yoshua Bengio、 Ian Goodfellow 和 Aaron Courville 等人在2019年出版的《深度学习》(又称「花书」)一书中将「概率函数」定义为「描述了一个或一组随机变量呈现其每种可能状态的可能性大小」,而能量模型
大数据文摘
2022/04/07
3460
Yann LeCun最新访谈:能量模型是通向自主人工智能系统的起点
Meta「世界模型」遭质疑:10年前就有了!LeCun:关键在于构建和训练
---- 新智元报道   编辑:好困 拉燕 【新智元导读】LeCun刚刚发表完自己以AI为基构建「世界模型」的设想,随即就引发了大量的讨论。众多网友表示,这个概念早就提出过了。 2月24日,Meta在「春晚」上介绍了首席科学家Yann LeCun在构建人类级别的AI勾勒出的另一种愿景。 LeCun表示,AI学习「世界模型」(世界如何运作的内部模型)的能力可能是关键。然而,文章一出,便遭到了很多业内人士的质疑,这不是老早就有了的东西么? 始于20世纪60年代? 多伦多大学的副教授Dan Roy指出,「
新智元
2022/03/04
6460
图灵奖获得者Yann LeCun:未来几十年AI研究的最大挑战是「预测世界模型」
机器之心报道 机器之心编辑部 LeCun 认为,构造自主 AI 需要预测世界模型,而世界模型必须能够执行多模态预测,对应的解决方案是一种叫做分层 JEPA(联合嵌入预测架构)的架构。该架构可以通过堆叠的方式进行更抽象、更长期的预测。LeCun 和 Meta AI 希望分层 JEPA 可以通过观看视频和与环境交互来了解世界是如何运行的。 深度学习大规模应用之后,人们一直期待真正的通用人工智能出现,能够带来进一步的技术突破。 对此,Meta 首席科学家、图灵奖获得者 Yann LeCun 最近提出了一种新思路
机器之心
2022/03/04
2780
LeCun世界模型出场!Meta震撼发布首个「类人」模型,理解世界后补全半张图,自监督学习众望所归
长久以来,LeCun理想中的AI,一直是通往人类水平的AI,为此他提出了「世界模型」的构想。
新智元
2023/08/05
2860
LeCun世界模型出场!Meta震撼发布首个「类人」模型,理解世界后补全半张图,自监督学习众望所归
Meta祭出元宇宙「阿拉丁神灯」!LeCun称世界模型将带来像人一样的AI
---- 新智元报道   编辑:桃子 好困 袁榭 拉燕 【新智元导读】2022年2月24日凌晨,在Meta AI实验室讨论会上,小扎亲自带队公布了多项技术内容:语音生成元宇宙场景的Builder Bot、让AI赶上人类智慧的「世界模型」、超级AI助手CAIRaoke等等。 「Builder Bot,带我去海边转转。」「再来点云吧。」小扎一句话,阳光沙滩,蔚蓝大海,一缕云彩就出现了。 要知道,这些都是人工智能生成的(all AI-generated)。Meta的首席执行官扎克伯格在今天「用人工智能构建
新智元
2022/03/04
5540
Yann LeCun 最新发声:自监督+世界模型,让 AI 像人类与一样学习与推理
来源:AI科技评论本文约6100字,建议阅读10+分钟Yann LeCun提倡下一代AI系统将不再依赖于精心标注的数据集。 如何突破当代人工智能(AI)的瓶颈?不同学者存在不同观点。 总体来看可以概括为两类,其一监督学习者,提倡通过改善数据标签质量,从而完善监督学习。代表人物有发起“以数据为中心AI”革命的吴恩达,提倡设计“合成数据自带所有标签”的Rev Lebaredian。 其二,无监督学者,例如Yann LeCun,提倡下一代AI系统将不再依赖于精心标注的数据集。 近日,Yann LeCun在met
数据派THU
2022/03/04
2500
Yann LeCun最新发声:自监督+世界模型,让 AI 像人类与一样学习与推理
作者 | 维克多、西西、王晔 编辑 | 陈彩娴 如何突破当代人工智能(AI)的瓶颈?不同学者存在不同观点。 总体来看可以概括为两类,其一监督学习者,提倡通过改善数据标签质量,从而完善监督学习。代表人物有发起“以数据为中心AI”革命的吴恩达,提倡设计“合成数据自带所有标签”的Rev Lebaredian。 其二,无监督学者,例如Yann LeCun,提倡下一代AI系统将不再依赖于精心标注的数据集。 近日,Yann LeCun在meta AI(原Facebook)官方博客上以及IEEE采访中,深度阐述了他的自监
AI科技评论
2022/03/03
6520
GPT-4的研究路径没有前途?Yann LeCun给自回归判了死刑
机器之心报道 机器之心编辑部 Yann LeCun 这个观点的确有些大胆。 「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」最近,图灵奖得主 Yann LeCun 给一场辩论做了个特别的开场。而他口中的自回归,正是当前爆红的 GPT 家族模型所依赖的学习范式。 当然,被 Yann LeCun 指出问题的不只是自回归模型。在他看来,当前整个的机器学习领域都面临巨大挑战。 这场辩论的主题为「Do large language models need sensory grounding for m
机器之心
2023/03/29
3610
GPT-4的研究路径没有前途?Yann LeCun给自回归判了死刑
思考总结10年,图灵奖得主Yann LeCun指明下一代AI方向:自主机器智能
选自arXiv 作者:Yann LeCun 机器之心编译 编辑:小舟、陈萍 在这篇长达 62 页的论文中,LeCun 表示,这篇论文提炼了他对过去 5 年 - 10 年关于 AI 发展大方向的思考,这基本上是他计划在接下来的 10 年中开展的工作,也是他希望激励其他人从事的工作。 随着机器学习的不断发展,领域内的研究者开始思考一个问题:我们离通用人工智能(AGI)还有多远? 要实现 AGI,最关键的一点是让机器了解世界是如何运转的,掌握广泛的现实知识。 这也是图灵奖得主 LeCun 近期在探索的问题。他曾
机器之心
2022/06/29
6270
思考总结10年,图灵奖得主Yann LeCun指明下一代AI方向:自主机器智能
从能量角度看自监督学习
本次演讲来自Nvidia GTC21,演讲者是来自Facebook的人工智能研究副总裁兼纽约大学教授Yann Lecun。本次演讲以自监督学习为主,介绍了将不同的自监督学习算法用统一的模型框架来解释的方法。
用户1324186
2021/07/06
4890
LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA
甚至,OpenAI技术报告中透露,Sora能够深刻地理解运动中的物理世界,堪称为真正的「世界模型」。
新智元
2024/02/26
2150
LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
在人工智能领域,很少有像 Yann LeCun 这样的学者,在 65 岁的年龄还能高度活跃于社交媒体。
机器之心
2024/03/18
1700
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
迈向自主机器智能
今天为大家介绍的是来自Yann LeCun的一篇讨论文。机器如何能够像人类和动物一样高效地学习?机器如何学会推理和规划?机器如何在多个抽象层次上学习感知和行动计划的表示,使其能够进行推理、预测和多时间尺度的规划?这篇论文提出了一种架构和训练范例,用于构建自主智能代理。它结合了可配置的预测性世界模型、通过内在动机驱动的行为,以及通过自监督学习训练的层次化联合嵌入架构等概念。
DrugAI
2023/09/19
2290
迈向自主机器智能
图灵奖得主Yann LeCun:AI要获得常识,自监督学习是那把钥匙
从婴儿时期的「物体恒存」开始,我们知道跟我们玩躲猫猫的大人其实并没有消失,他们就藏在某个地方,只是被某个东西挡住了。
新智元
2021/03/10
4840
图灵奖得主Yann LeCun:AI要获得常识,自监督学习是那把钥匙
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​
面对 OpenAI 源源不断放出的 Sora 生成视频,LeCun 热衷于寻找其中的失误:
机器之心
2024/03/07
2480
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​
Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
Yann LeCun 最新哈德逊论坛演讲:仅通过文本训练,LLM 永远不会达到接近人类水平的智能。所以现在 Meta 已经转向了更长期的下一代 AI 系统研究,基本不再专注于 LLM 了。
Datawhale
2024/10/21
2250
Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
Meta 自监督学习 I-JEPA 论文笔记
I-JEPA ( Image Joint Embedding Predictive Architecture ) 是一种自监督学习框架,结合了 联合嵌入架构 (Joint-Embedding Architecture) 和 生成架构 (Generative Architecture) 的特性提出。
为为为什么
2023/06/27
9310
Meta 自监督学习 I-JEPA 论文笔记
Yann LeCun最新文章:自监督学习的统一框架,人类婴儿般学习
Facebook 今天宣布了一项重大突破: Facebook 的 自监督AI 模型 SEER 能够在没有人类帮助的情况下,从10亿张随机的、未标记的公共 Instagram 图片中学习,并且从这些信息中能够识别和分类照片中的主要对象,准确率达到84.2% ,比现有的自监督系统高出一个百分点。
AI科技评论
2021/03/09
7940
Yann  LeCun最新文章:自监督学习的统一框架,人类婴儿般学习
物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力
在当今的 AI 领域,图灵奖得主 Yann LeCun 算是一个另类。即便眼见着自回归 LLM 的能力越来越强大,能解决的任务也越来越多,他也依然坚持自己的看法:自回归 LLM 没有光明的未来。
机器之心
2025/02/21
710
物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力
LeCun世界模型首项研究来了:自监督视觉,像人一样学习和推理,已开源
去年初,Meta 首席 AI 科学家 Yann LeCun 针对「如何才能打造出接近人类水平的 AI」提出了全新的思路。他勾勒出了构建人类水平 AI 的另一种愿景,指出学习世界模型(即世界如何运作的内部模型)的能力或许是关键。这种学到世界运作方式内部模型的机器可以更快地学习、规划完成复杂的任务,并轻松适应不熟悉的情况。
机器之心
2023/08/07
4490
LeCun世界模型首项研究来了:自监督视觉,像人一样学习和推理,已开源
推荐阅读
Yann LeCun最新访谈:能量模型是通向自主人工智能系统的起点
3460
Meta「世界模型」遭质疑:10年前就有了!LeCun:关键在于构建和训练
6460
图灵奖获得者Yann LeCun:未来几十年AI研究的最大挑战是「预测世界模型」
2780
LeCun世界模型出场!Meta震撼发布首个「类人」模型,理解世界后补全半张图,自监督学习众望所归
2860
Meta祭出元宇宙「阿拉丁神灯」!LeCun称世界模型将带来像人一样的AI
5540
Yann LeCun 最新发声:自监督+世界模型,让 AI 像人类与一样学习与推理
2500
Yann LeCun最新发声:自监督+世界模型,让 AI 像人类与一样学习与推理
6520
GPT-4的研究路径没有前途?Yann LeCun给自回归判了死刑
3610
思考总结10年,图灵奖得主Yann LeCun指明下一代AI方向:自主机器智能
6270
从能量角度看自监督学习
4890
LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA
2150
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
1700
迈向自主机器智能
2290
图灵奖得主Yann LeCun:AI要获得常识,自监督学习是那把钥匙
4840
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​
2480
Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
2250
Meta 自监督学习 I-JEPA 论文笔记
9310
Yann LeCun最新文章:自监督学习的统一框架,人类婴儿般学习
7940
物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力
710
LeCun世界模型首项研究来了:自监督视觉,像人一样学习和推理,已开源
4490
相关推荐
Yann LeCun最新访谈:能量模型是通向自主人工智能系统的起点
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档