Loading [MathJax]/jax/input/TeX/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Model-Agnostic Meta-Learning (MAML)算法简介

Model-Agnostic Meta-Learning (MAML)算法简介

作者头像
灯塔大数据
发布于 2020-08-12 02:34:00
发布于 2020-08-12 02:34:00
7.1K0
举报
文章被收录于专栏:灯塔大数据灯塔大数据

今天的文章为你带来对Model-Agnostic Meta-Learning (MAML)算法的一些理解!

No.1

背景

人类可以通过极少的数量来识别新的物体。比如,我们在看到一只萌萌哒猫咪以后,再见到第二只,我们也可以清楚地知道这是一只萌萌哒猫咪,其他物体也是如此。研究人员希望机器可以具有人的这种学习能力,以便在有限的样本中,也可以获得强大能力,这就是小样本学习(Few-shot Learning,FSL)。

小样本学习,顾名思义,就是在小数据量的基础上进行训练,并获得效果不错的模型。根据香港科技大学王雅晴博士最新发表的文章Generalizing from a Few Examples: A Survey on Few-Shot Learning ,我们可以将小样本的研究思路分为:模型、数据以及算法。而实现这些思路的主要方法包括:模型优化、度量学、元学习等等。这其中,元学习是很重要的一种实现方法。(网上有资料显示,小样本即元学习(Meta Learning)在监督学习领域的应用,笔者无法赞同。在调查了2015年-2019年这5年中各大顶会关于小样本的工作后,笔者发现,元学习只是小样本中很重要的一个方法,并不是唯一一个方法)。

元学习,即学习如何去学习的能力。通过在训练阶段将数据集分解为不同的task,去学习类别变化情况下模型的泛化能力;在测试阶段,尽管面对全新的类别,不需要改变已有的模型,就可以完成分类任务。

元学习的算法有很多。例如AutoML,这种算法可以针对不同的训练任务,输出不同的神经网络结构和超参数。但是这类算法相当复杂,不易实现。而另外一些元学习算法,不改变神经网络的结构,只改变网络的初始参数,这种方法相较于前一种更易于实现,例如本文将要介绍的MAML。

No.2

MAML

Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks是发表在2017年ICML的一篇文章。文中提出的MAML算法是一种模型无关的方法,可兼容于任何一种采用梯度下降算法的模型。该方法可以用于回归、分类以及强化学习

论文地址:https://arxiv.org/pdf/1703.03400.pdf

该方法的核心思想在于:通过少量的数据寻找一个合适的初始值范围,使得模型能够在有限的数据集上快速拟合,并获得一个不错的效果。这个方法的优点在于,无论是什么样的损失函数,无论是什么样的网络结构,都可以轻松实现适配。比如文中给出的例子里,在做图像分类时,损失函数使用的是交叉熵,而在做回归问题时,损失函数使用的是均方误差。

(一)算法概述

初始参数对于深度学习模型训练非常重要。好的初始参数能够提高模型收敛速度,并且更加接近最优解;而不好的初始参数会导致梯度传播异常,降低训练速度,影响训练效果。作者希望可以通过改变梯度下降的方向,找到对任务更加敏感的初始参数。这样,即便很小的数据量也可以使loss值更快地降低,也能得到一个效果不错的模型。

图一 MAML原理图,出自论文Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

表一 MAML算法伪代码,出自论文Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

步骤一:随机初始化参数;

步骤二:开始循环;

步骤三:导入图片,随即对几个task进行采样,形成一个batch;

步骤四---七:声明一下,这里每次迭代涉及到两次参数更新,由于个人习惯,笔者将第一次称之为外循环,第二次称之为内循环。外循环模型是我们最终获取的模型,而内循环可以当做是外循环的复制品,本身过程一致。首先,在外循环中针对给定的初始参数做训练,通过这个循环得到新参数,将新参数带到内循环中,再次计算,并第二次获取新的参数。

步骤八:将参数更新外循环参数,开始下一个epoch。

(二)实际效果

以下用一个y = ax + b的回归过程来展现这个算法的过程。

参考代码:

https://github.com/zhengsai168/fuxian/blob/master/MAML_y%3Dasin(x%2Bb).ipynb

图二展示了上述参考代码的主体部分。整个过程基于MSE损失函数,学习a_init和b_init的值是多少。同时,需要注意的是内外循环更新参数使用的学习率并不一样。

图二

为了验证其效果,我们将对比使用MAML训练得到的初参和直接使用随机给定初参训练结果的差异。

以下为使用MAML更新的a_init、b_init的结果(图三):

图三

下图为经过100次迭代后,的结果,可以发现,已基本拟合(图四)。

图四

同时,我们给出随机给定的的a_init、b_init(图五):

图五

同样,经过100轮迭代后的结果如下(图六):

图六

经过对比使用前后两组结果我们发现,使用了MAML优化过的初始参数后,拟合速度要远远超过未使用的。

No.3

结束语

总之,MAML在学术界已经是非常重要的模型了,依靠其简单的思想与其不俗的表现,MAML在小样本领域风行了起来。该论文自2017年发表至今已经收获了1500+的引用。在其后,有很多工作以其为基础进行了进一步的研究,例如,牛津大学的Harkirat Singh Behl发表的论文Alpha MAML: Adaptive Model-Agnostic Meta-Learning在MAML的基础上融合了进行了升级,使其学习率也可以随着loss的改变进行改变,进一步提升了训练效率;华盛顿大学的Aravind Rajeswaran发表的论文Meta-Learning with Implicit Gradients提出新的损失函数,用以解决MAML可能出现的梯度消失问题。本文旨在分享笔者对于MAML的一些理解,希望对大家有所帮助,欢迎大家来探讨。

谢谢您的观看

文章作者 :中国电信股份有限公司研究院 李昊

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-08-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 融智未来 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
机器学习——元学习(Meta-learning)
元学习(Meta-learning),即“学习如何学习”,是机器学习领域中一个令人兴奋且极具潜力的研究方向。它的核心目标是让机器学习系统学会高效地学习新任务,以解决传统模型对大量标注数据的需求和训练时间过长的问题。本文将深入探讨元学习的概念、关键方法及其应用场景,并通过代码示例展示如何实现元学习的核心思想。
hope kc
2024/11/21
5850
Meta Learning 入门:MAML 和 Reptile
七期飞跃计划还剩7个名额,联系小编,获取你的专属算法工程师学习计划(联系小编SIGAI_NO1)
SIGAI学习与实践平台
2019/07/15
5.4K0
Meta Learning 入门:MAML 和 Reptile
Few-Shot Learning(少样本学习)
Few-Shot Learning(少样本学习)是一种机器学习范式,旨在使模型能够在只有少量标注数据的情况下快速适应新任务或识别新的类别。这种能力对于许多实际应用场景非常重要,因为在这些场景中获取大量标注数据可能是昂贵、耗时甚至是不可能的。以下是关于Few-Shot Learning的详细解析:
jack.yang
2025/04/05
4480
Meta-Transfer Learning for Few-Shot Learning:元迁移学习的小样本学习
元学习(meta-learning)是目前广泛使用的处理小样本学习问题的方法,它的目的是在学习不同任务的过程中积累经验,从而使得模型能够快速适应新任务。比如在MAML(Model-Agnostic Meta- Learning)中,通过搜寻最优初始化状态,使得base-learner能够快速适应新任务。但是这一类元学习方法具有两个缺点:
智能生信
2021/02/04
3.7K0
Meta Learning 4: 基于优化的方法
相比较机器学习模型需要大量的标注数据进行训练,人类学习新知识和新技能的过程要更快更高效。
朴素人工智能
2021/05/28
1.4K0
Meta Learning 4: 基于优化的方法
元学习Meta-Learning—授人以鱼不如授人以渔
我们知道现在深度学习在使用大型数据集掌握一项任务(检测,分类等)方面取得了巨大的成功,但这并不是真正我们追求的“人工智能”。具体来说,我们可能训练了一个能做物理题很高分的学生,但是他也只能做物理题而已,面对数学题他只能吞下零分的命运;其次,在面对新的任务(数学题)的时候,我们的学生仍然需要大量的数据(数学题)进行训练,而在学习物理的时候积累下的学习方法(先验知识)却基本帮不上忙。
CristianoC
2020/08/06
1.2K0
使用Python实现深度学习模型:元学习与模型无关优化(MAML)
元学习(Meta-Learning)是一种通过学习如何学习来提升模型性能的技术,它旨在使模型能够在少量数据上快速适应新任务。模型无关优化(Model-Agnostic Meta-Learning, MAML)是元学习中一种常见的方法,适用于任何可以通过梯度下降优化的模型。本文将详细讲解如何使用Python实现MAML,包括概念介绍、算法步骤、代码实现和示例应用。
Echo_Wish
2024/06/30
3540
使用Python实现深度学习模型:元学习与模型无关优化(MAML)
Per-FedAvg:联邦个性化元学习
Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach 论文链接:https://proceedings.neurips.cc/paper/2020/file/24389bfe4fe2eba8bf9aa9203a44cdad-Paper.pdf
CV君
2022/04/18
2K0
Per-FedAvg:联邦个性化元学习
2018 ACM博士论文奖公布:伯克利博士获奖,清华姚班马腾宇荣誉提名
今日,ACM 公布最佳博士论文奖,来自 UC 伯克利的博士生 Chelsea Finn 凭借论文《Learning to Learn with Gradients》摘得桂冠。这篇论文介绍了一种基于梯度的新型元学习算法,帮助深度网络基于小型数据集解决新任务,该算法可用于计算机视觉、强化学习和机器人学等领域。
机器之心
2019/05/17
5930
Meta-learning核心思想及近年顶会3个优化方向
Meta-learning可以理解为一种求解问题的工具,下面举一个例子,通俗的说明meta-learning的作用。在正常的machine learning中,需要将数据集分成trainset和testset,模型在trainset上进行训练,在testset上评测效果。但是,在trainset上的训练过程可能导致过拟合,进而引起在testset上效果较差。如何才能设计一种面向testset上效果的训练方法呢?Meta-learning就能达到这个目的。Meta-learning直接评测在trainset训练几轮后的模型在testset上的效果,再使用这个效果作为信号计算并回传梯度,指导模型更新。Meta-learning的learn to learn,相比传统的机器学习,进行了一个两层的优化,第一层在trainset上训练,第二层在testset上评测效果。
圆圆的算法笔记
2022/09/22
8330
Meta-learning核心思想及近年顶会3个优化方向
论文精读|3rd|ICLR 2018最佳论文|全文下载|meta-learning in nonstationary
作者:Maruan Al-Shedivat, Trapit Bansal, Yura Burda等
用户7623498
2020/08/04
4510
论文精读|3rd|ICLR 2018最佳论文|全文下载|meta-learning in nonstationary
元学习综述 | 进入Meta Learning的世界(一)
Meta learning也经常被称为是learning to learn,也就是学习学习的方法。
guichen1013
2021/02/15
1.5K0
深度学习应用篇-元学习[14]:基于优化的元学习-MAML模型、LEO模型、Reptile模型
Model-Agnostic Meta-Learning (MAML): 与模型无关的元学习,可兼容于任何一种采用梯度下降算法的模型。 MAML 通过少量的数据寻找一个合适的初始值范围,从而改变梯度下降的方向, 找到对任务更加敏感的初始参数, 使得模型能够在有限的数据集上快速拟合,并获得一个不错的效果。 该方法可以用于回归、分类以及强化学习。
汀丶人工智能
2023/10/11
1.8K0
深度学习应用篇-元学习[14]:基于优化的元学习-MAML模型、LEO模型、Reptile模型
A Survey of Deep Meta-Learning:深度元学习综述
由于原论文篇幅很长,内容很丰富,在本推文中无法全部给大家展现出来,所以本文只挑选了原论文中比较重要和核心的内容进行介绍,更详细的内容请参考原论文。比如,本文只会提及元监督学习,有关强化学习和元强化学习的内容并没有提及。
智能生信
2021/02/04
1.9K0
NeurIPS 2021 | Spotlight:小样本分子性质预测新方法
分子性质预测(Molecule Property Prediction)是研究者在进行新药发现研究时经常会遇到的问题。由于新药发现研究中已知药理性质的分子(有标签样本)少,小样本学习(Few-Shot Learning)的方法在分子性质预测问题中有不错的效果。在已有的小样本的分子性质预测研究中,很多工作会选择直接使用小样本学习的经典方法,但是忽视了分子性质预测这个问题的特性,比如分子之间的关系以及同种分子在不同性质上的表现。在这篇工作中,我们提出了新的分子性质预测模型PAR,在获取分子表征的过程中加入self-attention层获取分子性质信息,创新地加入了分子关系学习和参数部分更新的策略,解决了已有工作存在的问题,在多个分子性质预测的数据集中取得了很好的效果。
DrugAI
2022/03/25
5740
NeurIPS 2021 | Spotlight:小样本分子性质预测新方法
【机器学习】元学习(Meta-learning)
元学习(Meta-learning)是机器学习中的一个重要概念,通常被称为“学习如何学习”。它使得机器不仅能够在特定任务上进行学习,还能学习如何从一个任务中迁移知识,以更高效地完成新的任务。在实际应用中,元学习常常与少样本学习(Few-shot learning)密切相关,尤其在面对数据稀缺或新任务时,能够通过少量样本进行高效学习。
云边有个稻草人
2024/12/29
5770
NeurIPS提前看 | 四篇论文,一窥元学习的最新研究进展
2019 年 NeurIPS 将于 12 月 8 日至 14 日在加拿大温哥华举行。NeurIPS 今年共收到投稿 6743 篇,其中接受论文 1429 篇,接受率达到了 21.1%。作为人工智能领域的年度盛会,每年人工智能的专家学者以及工业企业界的研发人员都会积极参会,发布最新的理论研究结果以及应用实践方面的成果。今年,国外的高校和研究机构一如既往的踊跃参加本届 NeurIPS,其中 Google 共贡献了 179 篇文章,斯坦福和卡耐基梅隆分别有 79 篇和 75 篇文章。国内的企业界腾讯上榜 18 篇、阿里巴巴上榜 10 篇,高校和研究机构中清华参与完成的文章共有 35 篇。
机器之心
2019/12/11
1.1K0
NeurIPS提前看 | 四篇论文,一窥元学习的最新研究进展
【RL Latest Tech】元强化学习(Meta Reinforcement Learning)
元强化学习是一种提升智能体适应新任务能力的技术,它让智能体不仅能学习完成当前的任务,还能在面对新的任务或环境时更快地学会新的策略。与传统的强化学习不同,元强化学习关注如何学习得更快、更高效,即学习如何学习。它让智能体在多种任务之间迁移经验,以应对任务变化或环境变化。
不去幼儿园
2024/12/03
7460
【RL Latest Tech】元强化学习(Meta Reinforcement Learning)
当小样本遇上机器学习 fewshot learning
深度学习(deep learning)已经广泛应用于各个领域,解决各类问题,例如在图像分类问题下,如图1,区分这10类目标的准确率目前可以轻松做到94%。然而,deep learning是一种data hungry的技术,需要大量的标注样本才能发挥作用。
全栈程序员站长
2022/08/11
9370
当小样本遇上机器学习 fewshot learning
Continuous Adaptation via Meta-Learning in Nonstationary and Competitive
文章链接:https://arxiv.org/pdf/1710.03641.pdf
狼啸风云
2019/01/18
1.5K1
推荐阅读
相关推荐
机器学习——元学习(Meta-learning)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档