前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >何恺明等降维打击!彻底颠覆AI生图,无需预训练一步到位

何恺明等降维打击!彻底颠覆AI生图,无需预训练一步到位

作者头像
新智元
发布于 2025-05-22 02:24:00
发布于 2025-05-22 02:24:00
1280
举报
文章被收录于专栏:新智元新智元


新智元报道

编辑:KingHZ

【新智元导读】何恺明团队又一力作!这次他们带来的是「生成模型界的降维打击」——MeanFlow:无需预训练、无需蒸馏、不搞课程学习,仅一步函数评估(1-NFE),就能碾压以往的扩散与流模型!

何恺明有新论文了!

全新的生成模型MeanFlow,最大亮点在于它彻底跳脱了传统训练范式——无须预训练、蒸馏或课程学习,仅通过一次函数评估(1-NFE)即可完成生成。

MeanFlow在ImageNet 256×256上创下3.43 FID分数,实现从零开始训练下的SOTA性能。

图1(上):在ImageNet 256×256上从零开始的一步生成结果

在ImageNet 256×256数据集上,MeanFlow在一次函数评估(1-NFE)下达到了3.43的FID分数,性能相比此前同类最佳方法有50%到70%的相对提升(见图1左)。

此外,MeanFlow训练过程从零开始,无需预训练、蒸馏或课程学习。

图1(左):算力和一次函数评估FID分数

其中iCT、Shortcut和MF都是一次函数评估(1-NFE),而IMM则使用了两次函数评估(2-NFE)的引导策略。

具体数值见表2。

表2:ImageNet-256×256上的类别条件生成实验,不同模型的参数、FID得分等统计数据

值得一提的是,作者共有5位,其中4位是华人,均来自CMU和MIT两所顶校。

其中一作耿正阳,是CMU的博士生,在MIT访问时完成了这次研究的部分工作。

论文链接:https://arxiv.org/abs/2505.13447

在新论文中,研究者提出了系统且高效的一步生成建模框架MeanFlow。

传统Flow Matching依赖建模瞬时速度场,而MeanFlow首创性地引入平均速度场(Mean Velocity Field)这一概念。

平均速度是指「位移/时间间隔」的比值,本质上是对瞬时速度在时间轴上的积分。

仅基于这一定义,研究者推导出了平均速度与瞬时速度之间清晰且内在的数学关系,这为神经网络训练提供了理论依据。

在这一基本概念之上,直接训练神经网络,对平均速度场建模。

为此,研究者设计了新的损失函数,引导网络去满足平均速度与瞬时速度之间的内在关系,无需引入额外的启发式方法。

由于存在明确定义的目标速度场,理论上最优解与网络的具体结构无关,这种属性有助于训练过程更加稳健和稳定

此外,新方法还能自然地将「无分类器引导」(Classifier-Free Guidance,CFG)融入目标速度场,在采样阶段使用引导时不会带来额外的计算开销。

详细结果

在图1和表2(左侧)中,研究者将MeanFlow与现有的一步扩散/流模型进行了比较。

总体来看,MeanFlow在同类方法中表现显著优越:

  • 新模型在ImageNet 256×256上实现了3.43的FID分数,相比IMM的7.77相对提升超过50%
  • 如果仅比较1-NFE(一次函数评估)的生成结果,MeanFlow相比此前的最优方法Shortcut(FID 10.60),相对提升接近70%

这表明,MeanFlow在很大程度上缩小了一步与多步扩散/流模型之间的性能差距

2-NFE(两次函数评估)设定下,新方法取得了2.20的FID分数(见表2左下角)。

这个结果已经可以媲美许多多步方法的最优基线。

它们都采用了XL/2级别的骨干网络,且NFE达到250×2(见表2右侧)。

这进一步表明,少步数的扩散/流模型已经具备挑战多步模型的潜力

此外,未来还能进一步提升性能。

图5:1-NFE生成结果示例

在CIFAR-10数据集(32×32)上,研究人员进行了无条件生成实验,结果列在表3中。

使用1-NFE采样时,他们使用FID-50K分数作为性能指标。

所有方法均采用相同的U-Net架构(约5500万参数)。

需要注意的是,其他所有对比方法均使用了EDM风格的预处理器(pre-conditioner),而新方法没有使用任何预处理器

在CIFAR-10这个数据集上,新方法在性能上与现有方法具有竞争力

表3:CIFAR-10无条件生成结果

前身:流匹配

流匹配(Flow Matching,简称FM)是一种生成建模范式。

Flow Matching将「连续归一化流」(Continuous Normalizing Flows,CNFs)与「扩散模型」(Diffusion Models,DMs)的一些关键思想相结合,从而缓解了这两类方法各自存在的核心问题。

形式上,给定数据x∼pdata(x)和先验噪声ϵ∼pprior(ϵ),可以构造一条流动路径,

其中t表示时间,a_t和b_t是预设的调度函数。

路径的速度定义为

这个速度被称为条件速度(conditional velocity)。参见图2左侧部分。

Flow Matching本质上是在对所有可能情况的期望进行建模,这种平均后的速度称为边缘速度(marginal velocity)(见图2右侧):

图2:Flow Matching中的速度场示意图。左图:条件流(ConditionalFlows)。同一个z_t可能由不同的(x,ϵ)组合生成,因此会对应不同的条件速度v_t。右图:边缘流(Marginal Flows)。通过对所有可能的条件速度进行边缘化(求平均)得到边缘速度场。这个边缘速度场被作为训练神经网络时的「真实目标速度场」

图例说明:灰点表示从先验分布中采样得到的样本,红点表示来自真实数据分布的样本。

接着,学习由参数θ表示的神经网络v_θ,来拟合这个边缘速度场,其损失函数为:

但由于式(1)中的边缘化过程难以直接计算,因此Flow Matching提出使用条件Flow Matching损失来代替:

其中目标速度v_t是条件速度。

可以证明,最小化上述两个损失函数是等价的。

一旦得到了边缘速度场v(z_t,t),就可以通过求解下面的常微分方程(ODE)来生成样本:

初始值为z_1=ϵ,上述微分方程的解可以写成积分形式:

其中r表示另一个时间点。

在实际中,这个积分通常通过数值方法在离散时间步上进行近似。

值得注意的是,即便条件流被设计为「直线流动」(即所谓「校正流」),最终得到的边缘速度场(公式(1))往往仍会诱导出弯曲的轨迹(见图2的示意)。

这种轨迹的弯曲不仅仅是因为神经网络的近似误差,更是源于真实的边缘速度场本身

当对这些弯曲轨迹使用粗粒度的时间离散化时,数值ODE解法往往会产生较大的误差,从而导致生成结果不准确。

MeanFlow模型

平均流(Mean Flows)的核心思想是:引入一个表示平均速度的新场(velocity field),而传统Flow Matching所建模的是瞬时速度

平均速度定义

平均速度被定义为两个时间点t和r之间的位移(通过对瞬时速度积分获得),再除以时间间隔。

形式上,平均速度u定义如下:

为了突出概念上的区别,统一用u表示平均速度,用v表示瞬时速度

平均速度场u(z_t,r,t)同时依赖于起始时间r和终止时间t,如图3所示。

图3:平均速度场

需要注意的是,平均速度u本质上是瞬时速度v的泛函结果。

因此,平均速度场是由瞬时速度场决定的,并不依赖于任何神经网络

从概念上讲,就像在Flow Matching中,瞬时速度v是训练的「真实目标场」,在MeanFlow中,平均速度u则扮演着类似的角色,是学习所依据的「真实速度场」。

MeanFlow模型的最终目标是:用神经网络近似平均速度场。

这样做的优势显著:一旦平均速度被准确建模,就可以仅通过一次前向计算来近似整个流动路径。

换句话说,这种方法非常适合一步或少步数的生成任务,因为它在推理阶段不需要显式计算时间积分——这是传统建模瞬时速度方法所必须的步骤。

不过,在实践中,直接使用公式(3)定义的平均速度作为训练网络的「真值」行不通,因为这要求在训练时就对瞬时速度执行积分,计算成本高且不可行。

研究人员的关键见解是:可以对平均速度的定义公式进行数学变形,从而构造一个更易于训练的优化目标,即使在只能访问瞬时速度的前提下依然可行

MeanFlow恒等式

为了得到适合训练的形式,平均速度的定义公式(3)被重新改写为:

接着,对这个等式的两边关于t求导(把r当作常数),然后运用函数积的求导法则和微积分基本定理,得到:

整理上式,即可得到核心的MeanFlow恒等式

它刻画了平均速度u和瞬时速度v之间的本质联系。

需要说明的是,公式(6)与之前的积分公式(4)是等价的(详见原文附录B.3)

MeanFlow恒等式中,公式右侧给出了可以作为训练目标的形式,可以利用它构建损失函数,来训练神经网络预测u(z_t,r,t)。

为了构建这个损失函数,还需要进一步分解其中的时间导数项。

时间导数的计算

要计算公式(6)右侧第二项全导数(total derivative),它可以用偏导数展开如下:

将导数关系带入后得到:

这提供了另一种表达u和v关系的方式。

利用神经网络自动微分,在训练时高效计算时间导数项。

利用平均速度进行训练

到目前为止,上述公式还没有涉及任何网络参数。现在引入可学习的模型u_θ,并希望它满足MeanFlow恒等式(公式(6))

研究者定义如下的损失函数来优化网络参数:

其中,u_tgt是通过MeanFlow恒等式构造的训练目标:

这个目标的几个关键点如下:

  • 训练信号来自于瞬时速度v,不需要积分操作,因此相比平均速度定义式(3)更容易实现。
  • 虽然公式中出现了对u的偏导数,但实际训练中使用的是网络输出uθ的梯度(自动微分实现)。
  • 使用了stop-gradient操作(记为sg):这是为了避免「二阶反向传播」,从而减小优化的计算负担。

需要说明的是,即使在优化中进行了这些近似,只要u_θ最终能够使损失为零,它就一定满足MeanFlow恒等式,从而也满足最初的平均速度定义。

条件速度替代边缘速度

在公式(10)中的v(z_t,t)是Flow Matching中的边缘速度(见图2右),但它难以直接计算。

因此,借鉴Flow Matching已有的做法,使用条件速度(见图2左)来替代:

这里vt=at′x+bt′ϵ是条件速度,在默认设定下vt=ϵ−x。

论文链接:https://arxiv.org/abs/2210.02747

在算法1中,jvp操作(Jacobian-vector product)非常高效

使用MeanFlow模型进行采样非常简单:只需将时间积分项替换为平均速度即可,伪代码详见算法2。

带引导的MeanFlow

新方法能够自然支持无分类器引导(Classifier-Free Guidance,CFG)

与传统做法在采样阶段直接应用CFG不同,研究者将CFG视为底层「真实速度场」的一部分属性

这种建模方式可以在保留CFG效果的同时,仍保持采样时的1-NFE性能

构建真实速度场

研究者定义新的带引导的真实速度场vcfg:

这是一个类别条件场(class-conditional field)与无条件场(class-unconditional field)的线性组合

其中,类别条件速度(即对给定类别c条件下的边缘速度)、无条件边缘速度,定义如下:

接下来,我们仿照MeanFlow的方式,为vcfg引入对应的平均速度

根据MeanFlow恒等式(公式6),我们有:

我们再次强调,vcfg和ucfg都是理论上的真实速度场,与神经网络参数无关

此外,由公式(13)和MeanFlow恒等式导出:

这可以简化计算。

带引导的训练方法

神经网络ucfg,θ来拟合平均速度场,需要构造如下训练目标:

其中目标值为:

这里的右侧第一项是结合引导权重后的速度定义:

说明:

  • 其中v_t是样本条件速度,默认设定为vt=ϵ−x。
  • 如果ω=1,即纯类别条件引导,则损失函数退化为不含CFG的公式(9)。
  • stop-gradient操作用于阻断目标对网络参数的反向传播,避免二阶梯度计算。

此外,为了增强网络对无类别输入的泛化能力,以0%概率随机丢弃类别条件。

单NFE下CFG采样

在本方法中,网络直接学习的是由引导速度vcfg所诱导的平均速度。

因此,在采样阶段,无需再进行线性组合计算,只需直接网络调用即可完成一步采样(见算法2)。

最终,新在保留CFG效果的同时,依然维持了理想的单步采样性能(1-NFE),兼顾了效率与质量。

作者介绍

耿正阳(Zhengyang Geng)

耿正阳,卡内基梅隆大学(CMU)计算机科学博士生。

他热衷于研究动态系统,致力于识别、理解并开发能够自组织形成复杂系统的动态机制。

2020年,他毕业于四川大学,获得计算机科学与技术学士学位。

他在北京大学、Meta等机构实习过多次。

参考资料:

https://arxiv.org/abs/2505.13447

https://mlg.eng.cam.ac.uk/blog/2024/01/20/flow-matching.html

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-05-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%
文章提出了一种名为 MeanFlow 的单步生成建模框架,通过引入平均速度(average velocity)的概念来改进现有的流匹配方法,并在 ImageNet 256×256 数据集上取得了显著优于以往单步扩散 / 流模型的结果,FID 分数达到 3.43,且无需预训练、蒸馏或课程学习。
机器之心
2025/05/22
2140
何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%
深入浅出Diffusion模型:从原理到实践的全方位教程
近年来,生成式人工智能(Generative AI)领域取得了爆炸性的进展,模型能够根据简单的文本提示创作出逼真的图像、连贯的文本,乃至更多令人惊叹的内容。在这场技术革命中,Diffusion模型(扩散模型)已成为一股主导力量,催生了许多当前最先进的成果 1。它们凭借其独特的机制,在图像合成、音频生成等多个领域展现出卓越性能,正迅速成为生成式建模领域的新范式 1。
@小森
2025/06/10
2120
影像篡改与识别(三):人工智能时代
2019年,据美联社报道,一名间谍利用AI生成的个人资料和图片,在全球知名的职场社交平台LinkedIn上欺骗联系人,包括政治专家和政府内部人员[1][2]。 这位30多岁的女性名叫凯蒂•琼斯,拥有一份顶级智库的工作,虽然她的关系网规模不大,只有52个联系人,但却都有着举足轻重的影响力,比如:一位副助理国务卿、一位参议员的高级助理、以及正在考虑谋求美联储一席之地的经济学家保罗•温弗里。 然而,经过许多相关人员和专家的调查采访,美联社证实了凯蒂•琼斯其实并不存在,她的人脸照片似乎是由一种典型的GAN技
云鼎实验室
2021/09/14
8290
图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPS
---- 新智元报道   编辑:桃子 好困 【新智元导读】OpenAI重磅研究「一致性模型」项目开源,不仅一步瞬时生图,还能图像编辑,连最能打的扩散模型也得让步了。 ChatGPT、Midjourney的火爆,让其背后技术扩散模型成为「生成式AI」革命的基础。 甚至,还受到业内研究者极力追捧,其风头远远盖过曾经逆袭天下的GAN。 就在扩散模型最能打的时候,竟有网友突然高调宣布: Diffusion models时代终结!Consistency models加冕为王! 这究竟是怎么回事??? 原来,
新智元
2023/05/09
2810
图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPS
AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用
来源:机器之心 本文约2000字,建议阅读5分钟 本文提出了一种端到端的神经网络架构 ControlNet,该架构可以通过添加额外条件来控制扩散模型。 通过「添加额外条件」来控制扩散模型,斯坦福大学最新的一项研究让图生图效果更上了一层楼。 随着大型文本 - 图像模型的出现,生成一幅吸引人的图像已经变得非常简单,用户需要做的就是动动手指输入简单的 prompt 就可以。通过一系列操作得到图像后,我们不免又会产生这样几个问题:基于 prompt 生成的图像能够满足我们的要求吗?我们应该构建怎样的架构来处理用户提
数据派THU
2023/03/29
4080
AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用
再读 ICCV 2023 最佳论文ControlNet,AI降维打击人类画家
(2)Default prompt:由于Stable diffusion本质上是用prompt训练的,空字符串可能是模型的一个意外输入,如果没有提供prompt,SD倾向于生成随机纹理。更好的设置是使用无意义的prompt,如“一张图片”、“一张漂亮的图片”、“一张专业的图片”等。在设置中,使用“专业、详细、高质量的图像”作为默认prompt。
公众号机器学习与AI生成创作
2023/10/09
1.4K0
再读 ICCV 2023 最佳论文ControlNet,AI降维打击人类画家
AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用
 机器之心报道 机器之心编辑部 通过「添加额外条件」来控制扩散模型,斯坦福大学最新的一项研究让图生图效果更上了一层楼。 随着大型文本 - 图像模型的出现,生成一幅吸引人的图像已经变得非常简单,用户需要做的就是动动手指输入简单的 prompt 就可以。通过一系列操作得到图像后,我们不免又会产生这样几个问题:基于 prompt 生成的图像能够满足我们的要求吗?我们应该构建怎样的架构来处理用户提出的各种要求?在特定任务中,大型模型是否还能保持从数十亿张图像中获得的优势和能力? 为了回答这些问题,来自斯坦福的研究者
机器之心
2023/02/23
7380
AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用
终结扩散模型:OpenAI开源新模型代码,一步成图,1秒18张
机器之心报道 机器之心编辑部 扩散模型的时代结束了。 在 AI 画图的领域,人们一直关注的是扩散模型,人们一直在尝试不断改进,推出了 Stable Diffusion、Midjourney、DALL-E 等技术,并在其基础上构建应用。不过最近,OpenAI 提出的全新生成模型看起来要让这一领域经历一场革命。 与高调推出 ChatGPT 、GPT-4 不同,这次 OpenAI 在上个月偷偷上传了一篇论文《 Consistency Models 》,也不能说是偷偷,只是这次没有媒体大张旗鼓的报道,就显得这项研究
机器之心
2023/04/21
3600
终结扩散模型:OpenAI开源新模型代码,一步成图,1秒18张
全新卷积模块DRConv | 进一步提升卷积的表示能力
得益于强大的表示能力,卷积神经网络(CNN)在图像分类、人脸识别、目标检测和许多其他应用中取得了重大进展。神经网络强大的表示能力源于不同的过滤器负责提取不同抽象级别的信息。然而,当前主流卷积运算以跨空间域的滤波器共享方式执行,因此只有在重复应用这些运算(例如,使用更多滤波器增加通道和深度)时才能捕获更有效的信息。这种重复方式有几个限制。首先,它的计算效率很低。其次,它会导致优化困难。
AiCharm
2023/05/15
6800
全新卷积模块DRConv | 进一步提升卷积的表示能力
DeepFlow高效的光流匹配算法(下)
本周主要介绍一篇基于传统光流法而改进的实现快速的稠密光流算法。该算法已经集成到OpenCV中,算法介绍网址:http://lear.inrialpes.fr/src/deepmatching/
点云PCL博主
2019/09/24
6K0
DeepFlow高效的光流匹配算法(下)
26秒训练ResNet,用这些技巧一步步压缩时间,Jeff Dean都称赞:干得漂亮
现在,谷歌AI掌门人Jeff Dean转发推荐了一个训练ResNet的奇技淫巧大礼包,跟着它一步一步实施,训练9层ResNet时,不仅不需要增加GPU的数量,甚至只需要1/8的GPU,就能让训练速度加快到原来的2.5倍,模型在CIFAR10上还能达到94%的准确率。
量子位
2019/08/21
9980
26秒训练ResNet,用这些技巧一步步压缩时间,Jeff Dean都称赞:干得漂亮
AI已能求解微分方程,数学是这样一步步“沦陷”的
AI也能解方程了?是的,它们不仅能解方程,还能“找到”方程!今天我们就简单梳理一下机器学习解方程的近些年最新进展。
量子位
2021/02/26
1.5K0
AI已能求解微分方程,数学是这样一步步“沦陷”的
深入浅出人脸识别技术
在深度学习出现后,人脸识别技术才真正有了可用性。这是因为之前的机器学习技术中,难以从图片中取出合适的特征值。轮廓?颜色?眼睛?如此多的面孔,且随着年纪、光线、拍摄角度、气色、表情、化妆、佩饰挂件等等的不同,同一个人的面孔照片在照片象素层面上差别很大,凭借专家们的经验与试错难以取出准确率较高的特征值,自然也没法对这些特征值进一步分类。深度学习的最大优势在于由训练算法自行调整参数权重,构造出一个准确率较高的f(x)函数,给定一张照片则可以获取到特征值,进而再归类。本文中笔者试图用通俗的语言探讨人脸识别技术,首先概述人脸识别技术,接着探讨深度学习有效的原因以及梯度下降为什么可以训练出合适的权重参数,最后描述基于CNN卷积神经网络的人脸识别。
陶辉
2019/06/21
2.7K0
深入浅出人脸识别技术
用于形状精确三维感知图像合成的着色引导生成隐式模型 | NeurIPS2021
编译 | 莓酊 编辑 | 青暮生成辐射场的发展推动了3D感知图像合成的发展。由于观察到3D对象从多个视点看起来十分逼真,这些方法引入了多视图约束作为正则化,以从2D图像学习有效的3D辐射场。尽管取得了进展,但由于形状-颜色的模糊性,它们往往无法捕获准确的3D形状,从而限制了在下游任务中的适用性。在这项研究工作中,来自马普所和港中文大学的学者通过提出一种新的着色引导生成隐式模型ShadeGAN来解决这种模糊性,它学习了一种改进的形状表示。 论文地址:https://arxiv.org/pdf/2110.15
AI科技评论
2022/03/03
7540
获奖无数的深度残差学习,清华学霸的又一次No.1 | CVPR2016 最佳论文
图像识别的深度残差学习————联合编译:李尊,陈圳、章敏 摘要 在现有基础下,想要进一步训练更深层次的神经网络是非常困难的。我们提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深。我们明确地将这层作为输入层相关的学习残差函数,而不是学习未知的函数。同时,我们提供了全面实验数据,这些数据证明残差网络更容易优化,并且可以从深度增加中大大提高精度。我们在ImageNet数据集用152 层--比VGG网络深8倍的深度来评估残差网络,但它仍具有较低的复杂度。在ImageNet测试集中,
AI科技评论
2018/03/07
1.1K0
获奖无数的深度残差学习,清华学霸的又一次No.1 | CVPR2016 最佳论文
扩散模型=流匹配?谷歌DeepMind博客深度详解这种惊人的等价性
从表面上看,这两种方法似乎各有侧重:扩散模型专注于通过迭代的方式逐步去除噪声,将数据还原成清晰的样本。
机器之心
2025/02/14
1440
扩散模型=流匹配?谷歌DeepMind博客深度详解这种惊人的等价性
算法工程师养成记(附精选面试题)
通往机器学习算法工程师的进阶之路是崎岖险阻的。《线性代数》《统计学习方法》《机器学习》《模式识别》《深度学习》,以及《颈椎病康复指南》,这些书籍将长久地伴随着你的工作生涯。
AI科技大本营
2018/09/28
1.1K0
算法工程师养成记(附精选面试题)
概率扩散模型讲义 (Probabilistic Diffusion Models)
Lecture Notes in Probabilistic Diffusion Models
CreateAMind
2024/05/14
6230
概率扩散模型讲义 (Probabilistic Diffusion Models)
瞎扯数学分析——微积分(大白话版)
公理体系的例子,想说明人类抽象的另外一个方向:语言抽象(结构抽象已经在介绍伽罗华群论时介绍过)。 为了让非数学专业的人能够看下去,采用了大量描述性语言,所以严谨是谈不上的,只能算瞎扯。 现代数学基础有三大分支:分析,代数和几何。这篇帖子以尽量通俗的白话介绍数学分析。数学分析是现代数学的第一座高峰。 最后为了说明在数学中,证明解的存在性比如何计算解本身要重要得多,用了两个理论经济学中著名的存在性定理(阿罗的一般均衡存在性定理和阿罗的公平不可能存在定理)为例子来说明数学家认识世界和理解问题的思维方式,以及存在性的重要性:阿罗的一般均衡存在性,奠定了整个微观经济学的逻辑基础--微观经济学因此成为科学而不是幻想或民科;阿罗的公平不可能存在定理,摧毁了西方经济学界上百年努力发展,并是整个应用经济学三大支柱之一的福利经济学的逻辑基础,使其一切理论成果和政策结论成为泡影。
Ai学习的老章
2021/02/05
2K0
2D景观转3D风景大片,无惧复杂光线与遮挡,人类离「躺着旅行」的梦想又近了一步
上班的时候想旅行,休假的时候想躺着,这是大多数年轻人的状态。如果能够躺在床上旅行,岂不美哉?
机器之心
2020/08/11
8170
2D景观转3D风景大片,无惧复杂光线与遮挡,人类离「躺着旅行」的梦想又近了一步
推荐阅读
何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%
2140
深入浅出Diffusion模型:从原理到实践的全方位教程
2120
影像篡改与识别(三):人工智能时代
8290
图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPS
2810
AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用
4080
再读 ICCV 2023 最佳论文ControlNet,AI降维打击人类画家
1.4K0
AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用
7380
终结扩散模型:OpenAI开源新模型代码,一步成图,1秒18张
3600
全新卷积模块DRConv | 进一步提升卷积的表示能力
6800
DeepFlow高效的光流匹配算法(下)
6K0
26秒训练ResNet,用这些技巧一步步压缩时间,Jeff Dean都称赞:干得漂亮
9980
AI已能求解微分方程,数学是这样一步步“沦陷”的
1.5K0
深入浅出人脸识别技术
2.7K0
用于形状精确三维感知图像合成的着色引导生成隐式模型 | NeurIPS2021
7540
获奖无数的深度残差学习,清华学霸的又一次No.1 | CVPR2016 最佳论文
1.1K0
扩散模型=流匹配?谷歌DeepMind博客深度详解这种惊人的等价性
1440
算法工程师养成记(附精选面试题)
1.1K0
概率扩散模型讲义 (Probabilistic Diffusion Models)
6230
瞎扯数学分析——微积分(大白话版)
2K0
2D景观转3D风景大片,无惧复杂光线与遮挡,人类离「躺着旅行」的梦想又近了一步
8170
相关推荐
何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档