Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >七夕,诺奖得主用算法教你如何脱单

七夕,诺奖得主用算法教你如何脱单

作者头像
小莹莹
发布于 2018-04-20 07:42:04
发布于 2018-04-20 07:42:04
5690
举报

七夕来袭,又到了情侣们大秀恩爱,单身狗们咬牙切齿的季节。本着人道主义关怀,先给大家唱一曲单身狗之歌——

雌雄双兔傍地走,你还是条单身狗;

两个黄鹂鸣翠柳,你还是条单身狗;

路见不平一声吼,你还是条单身狗;

问君能有几多愁,你还是条单身狗。

听完是不是很想组个复仇者联盟,早上去卖花,晚上去卖套,凌晨去卖药?

还是你认为社会资源就这么多,拆散一对是一对,于是整晚都在大街上溜达,看哪一对不顺眼就冲上去扇姑娘一巴掌然后问她“不是说你爱我吗?”

还是你打算宅在家里重播非诚勿扰,幻想自己站在台上和24位姑娘演皇上选后妃的戏码?

如果你还在琢磨这些事情,恭喜你,弱爆了。

因为获得稳定的感情不仅仅是单身狗的个人问题,更是一个数学问题和经济问题——稳定匹配问题 (stable matching problem)。针对这个问题,早在1962年的时候,两位美国数学家和经济学家 David Gale 和 Lloyd Shapley(2012年诺贝尔经济学奖得主)给出了著名的 Gale-Shapley 算法。

什么是稳定匹配?

1962年,Gale 和 Shapley 发表了一篇名为大学招生与婚姻的稳定性 (College Admissions and the Stability of Marriage) 的论文,首次提出了稳定婚姻问题,研究在一夫一妻制度下并且每个男士最终都要和一个女士结婚时,男士和女士的配对关系。这个问题后来成为研究稳定匹配的典型例子。

他们所研究的问题是要促成 n 个男士和 n 个女士之间的 n 对婚姻(所有人都是异性恋)。为了使这些婚姻稳定,我们要求所有人都把n 个异性按照自己喜欢的程度排列出来,然后根据对异性的偏好顺序来安排婚姻,最终希望找到一个稳定的匹配方案。所谓稳定匹配,满足两个条件:首先,它是一个完美匹配(所有男士都娶到了唯一的老婆,所有女士都找到了唯一的老公);其次,它不含有任何不稳定因素(没人会离婚,没人会私奔)。

举个例子。如果我们要撮合许仙、法海、白素贞和小青四位组成两对夫妻,并且他们各自的偏好列表如下

因为只有两男两女,所以只可能有两种方案。

1.(许仙,小青),(法海,白素贞)

2.(许仙,白素贞),(法海,小青)

不管从任何角度出发,把许仙和白素贞分开都是一件残忍的事,法海他老人家因为当年干了这事,还被后人指责为不懂爱,数学当然也不会为拆散有情人提供理论依据。根据定义,第一个方案是不稳定的,原因是许仙和白素贞把彼此视为第一选择,如果强加给他们不同的配偶,在他们心里,依然把对方放在第一位,从而大大增加了出轨的可能性,所以第一个方案是不稳定的。

第二个方案是稳定的。稳定方案并不意味着每一个人都会和自己最爱的心上人在一起,在这个例子里,白素贞和小青都更加青睐许仙,但是许仙只有一个,这个时候起决定性因素的是她们各自在许仙心目中的地位。两对婚姻关系确定后,就算小青对许仙念念不忘,也只能是单相思,最多也就是在家拿法海出出气,逼他还俗、逼他吃肉、逼他减肥等等,如果小青不想单身就只能接受这段姻缘。这是婚姻关系在现实社会里的一个真实写照,并不是每个人都能和最爱的人在一起,这时候,人们的选择是自己所能追求到的最佳伴侣。

Gale-Shapley算法

根据Gale和Shapley,任何一个稳定婚姻问题都有解的,也就说至少一个方案是稳定的。具体算法如下:

(1) 确定每一位男士和每一位女士都是单身。

(2) 让每一位单身男士 m 向他名单里排位最靠前并且还没有发出过交往请求的女士 w 发出交往请求:

  • 如果这位女士 w 单身,就接受交往请求,并把他们的状态都改为交往中;
  • 如果这位女士已经是在交往中了,那么比较 m 和正在与 w 交往的男士m',如果 m 比 m' 在 w 的名单里更靠前,那么 w 就会和 m 开始交往,m' 恢复单身;
  • 如果 m' 比 m 更靠前,那么 w 就继续和 m' 交往,而 m 继续向他名单里的下一位女士发出交往请求。

(3) 当所有人都在交往中的时候,就让他们结婚吧!

如果算法读起来有点绕,那就看代码。假设 n 个未婚男士的集合 M 和 n 个未婚女士的集合 W。

再举个例子

这次出场的是唐僧师徒四人加上龙王三太子(白龙马)和中国古代四大美女西施、貂蝉、王昭君、杨玉环再加上才女蔡文姬。他们对各位异性的心仪顺序如下:

欢迎读者自行应用 G-S 算法,最后的结果是方案1:

(唐僧,西施),(悟空,昭君),(八戒,文姬),(沙僧,玉环),(三太子,貂蝉)

在这个例子中,无论是从那一个男士开始配对,或是在算法进行中改变配对顺序,得到的结果将是一样的。也就是说男士们的行动顺序对最终结果没有丝毫影响。能够影响结果的只有每个人心中的那一份排序。因此对每个男士而言,除了祈祷自己的竞争对手不要太强以外,最重要的就是提升自己在心仪姑娘心目中的地位。与其抢着出手,不如多花点时间提高自身的实力,以博得心仪姑娘更多的好感。

此外,如果有一男一女,都将对方视作第一人选,那么有情人必成眷属,比如例子中的文姬与八戒。在这种情况下,只要不把他们放在一起,就会引起方案的不稳定。所以只要我最爱的人最爱我,足矣。

在放心使用 G-S 算法之前我们还需要证明它给出的方案是稳定的。第一,这个算法是有限的,不会出现死循环或是没有结果的状况,原因是每个男士最多向 n 个女士求交往,所以最多 n*n 次请求后,算法结束。1997年,这个上界被美国数学家 Knuth 降低到 n*n - n +1。第二,证明稳定性。假设在 Gale-Shapley 算法产生的方案中有一位男士 m 向一位女士 w 求交往被拒绝,那么 w 必定正在和一位她更喜欢的男士 m' 交往,因此不可能出现 m 与 w 对彼此好感度都大于自己伴侣的可能性。

男士优先还是女士优先?

俗语有云,“男追女,隔层山;女追男,隔层纱。” 如果我们让女士们采取主动,而让男士们静候佳音,Gale-Shapley算法会不会更容易一点呢?会不会带给我们不同的结果呢?用上面的例子,这次让女士们选择男士交往,得到结果方案2:

(唐僧,昭君),(悟空,玉环),(八戒,文姬),(沙僧,貂蝉),(三太子,西施)

和男生先选的方案1进行比较 (括号里是心仪顺序)

虽然这两个方案都是稳定的,但是是不同的。除了八戒,其他男生在两种方案中的配偶都不相同。那么哪一种方案更好呢?

  • 对唐僧而言,方案1更好,因为西施是4号人选而昭君是最差选择。
  • 对悟空来说,方案1更好,因为昭君是3号人选而玉环是4号人选。
  • 对沙僧来说,方案1更好,因为玉环是2号人选而貂蝉是3号人选。
  • 对三太子来说,方案1要好的多,因为貂蝉是最佳人选,而西施只排在第3位。

总体来说,男士们都倾向于第一方案。再来看看女士们的意见。为了方便,我们将两个方案的组合重新排列。

  • 对西施而言,方案2更好,三太子是2号人选,而唐僧是3号人选。
  • 对貂蝉来说,方案2是最佳方案,沙僧是第1人选,而三太子只排在第3位。
  • 对昭君来说,方案2更好,唐僧是2号人选,而悟空是4号人选。
  • 对玉环来说,方案2要好的多,悟空是最佳人选,而沙僧是3号人选。

所以全体女士都应该强烈倾向于第二方案。

于是我们得到了一个重要的推理:Gale-Shapley 算法产生的稳定方案对于主动一方是最优方案,而对被动一方是最差方案。

小结

在这个喜大普奔的节日,看过了数学家和诺贝尔经济学奖得主的经典算法,诸位单身狗是不是已经找到过节的正确姿势了?

  1. 合理前提下,所有人都能找到伴侣;
  2. 只有主动出击才能最大化幸福,被动等来的往往是最差结果;
  3. 竞争激烈时,与其抢着出手,不如多花点时间提高自身的实力,以博得心上人更多的好感;
  4. 最爱的人爱我,此生足矣;
  5. 并不是每个人都能和最爱的人在一起,如果不能,选择你所能追求到的最佳伴侣。

素材来源:新浪博客 @能说好动爱生活的刺客

编辑:Emma 摘自:知象科技(微信ID: briphant)

PPV课其他精彩文章:


1、回复“干货”查看干货 数据分析师完整知识结构

2、回复“答案”查看大数据Hadoop面试笔试题及答案

3、回复“设计”查看这是我见过最逆天的设计,令人惊叹叫绝

4、回复“可视化”查看数据可视化专题-数据可视化案例与工具

5、回复“禅师”查看当禅师遇到一位理科生,后来禅师疯了!!知识无极限

6、回复“啤酒”查看数据挖掘关联注明案例-啤酒喝尿布

7、回复“栋察”查看大数据栋察——大数据时代的历史机遇连载

8、回复“数据咖”查看数据咖——PPV课数据爱好者俱乐部省分会会长招募

9、回复“每日一课”查看【每日一课】手机在线视频集锦

PPV课大数据ID: ppvke123 (长按可复制)

大数据人才的摇篮!专注大数据行业人才的培养。每日一课,大数据(EXCEL、SAS、SPSS、Hadoop、CDA)视频课程。大数据资讯,每日分享!数据咖—PPV课数据爱好者俱乐部!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2015-08-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 PPV课数据科学社区 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
即插即用 | XBN让ResNet、ShuffleNet彻底解决BN的局限和缺点
输入标准化在神经网络训练中广泛应用了几十年,在线性模型优化中显示了良好的理论特性。它使用统计数据进行标准化,而这些统计量可以直接从可用的训练数据中计算出来。
集智书童公众号
2022/04/07
1.4K0
即插即用 | XBN让ResNet、ShuffleNet彻底解决BN的局限和缺点
BN层迎来升级版MABN | 轻轻松松几行代码帮你解决跨域问题,同时顺手涨点
深度模型由于与训练和测试数据分布的匹配而实现了惊人的性能。然而,这种假设在实际世界中是脆弱的,因为收集训练数据以覆盖通用分布是不可能的。因此,在推理时遇到的未见分布会导致性能退化,这源于分布转移。
集智书童公众号
2023/12/26
5160
BN层迎来升级版MABN | 轻轻松松几行代码帮你解决跨域问题,同时顺手涨点
深度学习500问——Chapter03:深度学习基础(3)
假如每次只训练一个样本,即Batch Size=1。线性神经元在均方误差代价函数的错误面是一个抛物面,横截面是椭圆。对于多层神经元、非线性网络,在局部依然近似是抛物面。此时,每次修正方向以各自样本的梯度方向修正,横冲直撞各自为政,难以达到收敛。
JOYCE_Leo16
2024/03/19
920
深度学习500问——Chapter03:深度学习基础(3)
可能提高GAN性能的方法介绍
生成器试图找到最好的图像来欺骗鉴别器。当两个网络互相对抗时,“最佳”图像不断变化。但是,优化可能会变得过于贪心,使其陷入永无止境的猫捉老鼠游戏中。这是模型不收敛和模式崩溃的原因之一。
AiTechYun
2018/07/27
1.6K0
可能提高GAN性能的方法介绍
GoogLeNetv2 论文研读笔记
当前神经网络层之前的神经网络层的参数变化,引起神经网络每一层输入数据的分布产生了变化,这使得训练一个深度神经网络变得复杂。这样就要求使用更小的学习率,参数初始化也需要更为谨慎的设置。并且由于非线性饱和(注:如sigmoid激活函数的非线性饱和问题),训练一个深度神经网络会非常困难。我们称这个现象为:internal covariate shift。同时利用归一化层输入解决这个问题。我们将归一化层输入作为神经网络的结构,并且对每一个小批量训练数据执行这一操作。Batch Normalization(BN) 能使用更高的学习率,并且不需要过多地注重参数初始化问题。BN 的过程与正则化相似,在某些情况下可以去除Dropout
范中豪
2019/09/10
7570
GoogLeNetv2 论文研读笔记
神经网络中的归一化
神经网络的学习其实在学习数据的分布,随着网络的深度增加、网络复杂度增加,一般流经网络的数据都是一个 mini batch,每个 mini batch 之间的数据分布变化非常剧烈,这就使得网络参数频繁的进行大的调整以适应流经网络的不同分布的数据,给模型训练带来非常大的不稳定性,使得模型难以收敛。
@小森
2024/05/07
1720
神经网络中的归一化
归一化激活层的进化:谷歌Quoc Le等人利用AutoML 技术发现新型ML模块
批归一化和激活函数是深度神经网络的重要组成部分,二者的位置常常重合。以往的神经网络设计中通常对二者分别进行设计,而最近谷歌大脑和 DeepMind 研究人员合作提出了一种新方案:将二者统一为一个计算图,从低级原语开始进行结构进化。研究者利用层搜索算法发现了一组全新的归一化-激活层 EvoNorms。这些层中的一部分独立于批统计量(batch statistics)。
机器之心
2020/04/14
6780
归一化激活层的进化:谷歌Quoc Le等人利用AutoML 技术发现新型ML模块
BN层和Dropout层「建议收藏」
z ^ l = γ ∗ z l − μ δ 2 + σ + β \hat{z}^{l} = \gamma * \frac{z^l-\mu}{\sqrt{\delta^2+\sigma}} + \beta z^l=γ∗δ2+σ ​zl−μ​+β
全栈程序员站长
2022/11/09
8490
NIPS 2018 | MIT新研究参透批归一化原理
在过去十年间,深度学习在计算机视觉、语音识别、机器翻译以及游戏等诸多困难任务中取得了令人瞩目的进展。这些进展依赖于硬件、数据集以及算法和架构技术等方面的重大突破。这些突破中最突出的例子是批归一化(BatchNorm)[10]。
机器之心
2018/12/13
4690
BN和Dropout在训练和测试时有哪些差别?
本文首先介绍了Batch Normalization和Dropout在训练和测试时的不同点,后通过相关论文的参考讲述了BN和Dropout共同使用时会出现的问题,并给出了两种解决方案,通过阅读本文能够对这两种技术的特性更加清晰。
公众号机器学习与AI生成创作
2021/01/08
3.1K0
BN和Dropout在训练和测试时有哪些差别?
来聊聊批归一化BN(Batch Normalization)层
Batch Normalization (BN) 是最早出现的,也通常是效果最好的归一化方式。feature map:
AI算法修炼营
2020/05/08
3.3K0
深度学习中的规范化
这篇文章介绍深度学习四种主流的规范化, 分别是Batch Normalization(BN[9]), Layer Normalization(LN[7]), Instance Normalization(IN[8])以及Group Normalization(GN[2])。
努力努力再努力F
2019/04/18
8920
深度学习中的规范化
学界 | 如何通过方差偏移理解批归一化与Dropout之间的冲突
选自arXiv 作者:Xiang Li, Shuo Chen, Xiaolin Hu, Jian Yang 机器之心编译 参与:朱乾树、蒋思源 自批量归一化提出以来,Dropout 似乎就失去了用武之处,流行的深度架构也心照不宣地在批归一化上不采用 Dropout。而近日南京理工大学和清华大学的研究表明 Dropout 在网络测试的时候神经元会产生方差偏移,因而进一步分析与理解如何能避免方差偏移风险,并克服二者组合的局限性。 在批归一化提出之前,Dropout 几乎是所有的最优网络的标配,尽管很简单,但它成
机器之心
2018/05/10
1.2K0
NFNETS论文解读:不使用BN的高性能大规模图像识别
因此,本文的重点是在不是使用BN来构建图像识别的卷积残差神经网络。但是如果没有BN,这些网络通常无法很好地运行或无法扩展到更大的批处理大小,但是本篇论文构建的网络可以使用大的批次进行伦联,并且比以前的最新方法(例如LambdaNets)更有效 。训练时间与准确率如下图表显示,对于在ImageNet上进行的相同的top-1准确性评分,NFnet比EffNet-B7快8.7倍。此模型是没有任何其他培训数据的最新技术,也是新的最新迁移学习。NFnets目前在全球排行榜上排名第二,仅次于使用半监督预训练和额外数据的方法。
deephub
2021/03/10
6300
NFNETS论文解读:不使用BN的高性能大规模图像识别
最全Normalization!建议收藏,面试必问!
进行归一化,从而保证数据分布的一致性,而判别模型的结果正是取决于数据整体分布。但是
灿视学长
2021/05/28
8500
为什么小批量会可以使模型获得更大的泛化
来源:Deephub Imba本文约2000字,建议阅读5分钟本文为你介绍了如批量大小在机器学习中的重要性。 批大小是机器学习中重要的超参数之一。这个超参数定义了在更新内部模型参数之前要处理的样本数量。 上图为使用 SGD 测试不同批量大小的示例。 批量大小可以决定许多基于深度学习的神经网络的性能。有很多研究都在为学习过程评估最佳批量大小。例如,对于 SGD可以使用批量梯度下降(使用批量中的所有训练样本)或小批量(使用一部分训练数据),甚至在每个样本后更新(随机梯度下降)。这些不同的处理方式可以改变模型训
数据派THU
2022/03/04
3080
20道深度学习面试题,有你不知道的吗?
首先权值共享就是滤波器共享,滤波器的参数是固定的,即是用相同的滤波器去扫一遍图像,提取一次特征特征,得到feature map。在卷积网络中,学好了一个滤波器,就相当于掌握了一种特征,这个滤波器在图像中滑动,进行特征提取,然后所有进行这样操作的区域都会被采集到这种特征,就好比上面的水平线。
小草AI
2019/06/02
2.6K0
深度学习中的归一化技术全面总结
训练深度神经网络是一项具有挑战性的任务。多年来,研究人员提出了不同的方法来加速和稳定学习过程。归一化是一种被证明在这方面非常有效的技术。
deephub
2022/06/04
1.1K0
深度学习中的归一化技术全面总结
学界 | 超越何恺明等组归一化 Group Normalization,港中文团队提出自适配归一化取得突破
AI 科技评论:港中文最新论文研究表明目前的深度神经网络即使在人工标注的标准数据库中训练(例如 ImageNet),性能也会出现剧烈波动。这种情况在使用少批量数据更新神经网络的参数时更为严重。研究发现这是由于 BN(Batch Normalization)导致的。BN 是 Google 在 2015 年提出的归一化方法。至今已有 5000+次引用,在学术界和工业界均被广泛使用。港中文团队提出的 SN(Switchable Normalization)解决了 BN 的不足。SN 在 ImageNet 大规模图像识别数据集和 Microsoft COCO 大规模物体检测数据集的准确率,还超过了最近由 Facebook 何恺明等人提出的组归一化 GN(Group Normalization)。原论文请参考 arXiv:1806.10779 和代码 https://github.com/switchablenorms
AI科技评论
2018/07/27
6450
学界 | 超越何恺明等组归一化 Group Normalization,港中文团队提出自适配归一化取得突破
常用的 Normalization 方法:BN、LN、IN、GN
常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。
AI算法与图像处理
2019/09/09
2.2K0
常用的 Normalization 方法:BN、LN、IN、GN
推荐阅读
相关推荐
即插即用 | XBN让ResNet、ShuffleNet彻底解决BN的局限和缺点
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档