前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >深度学习 | 小样本学习基础概念

深度学习 | 小样本学习基础概念

作者头像
Justlovesmile
发布于 2022-01-28 06:06:43
发布于 2022-01-28 06:06:43
6K1
举报
文章被收录于专栏:云+分享云+分享

小样本学习

人类非常擅长通过极少量的样本识别一个新物体,比如小孩子只需要书中的一些图片就可以认识什么是“斑马”,什么是“犀牛”。在人类的快速学习能力的启发下,研究人员希望机器学习模型在学习了一定类别的大量数据后,对于新的类别,只需要少量的样本就能快速学习,这就是 Few-shot Learning 要解决的问题。Few-shot learning (FSL) 在机器学习领域具有重大意义和挑战性,是否拥有从少量样本中学习和概括的能力,是将人工智能和人类智能进行区分的明显分界点,因为人类可以仅通过一个或几个示例就可以轻松地建立对新事物的认知,而机器学习算法通常需要成千上万个有监督样本来保证其泛化能力。

1.基础概念

机器学习定义:A computer program is said to learn from experience E with respect to some classes of task T and performance measure P if its performance can improve with E on T measured by P.

小样本学习定义:Few-Shot Learning (FSL) is a type of machine learning problems (specified by E, T and P), where E contains only a limited number of examples with supervised information for the target T.

小样本学习(Few-shot learning),或者称为少样本学习(Low-shot learning),包含了n-shot learning,其中n代表样本数量,n=1的情况下,也被称One-shot learning,而n=0的情况下,被称为Zero-shot learning。

小样本学习的主要思想是利用先验知识使其快速适用于只包含少量带有监督信息的样本的任务中。

2. 方法分类

小样本学习问题的解决方法可以根据先验知识的利用方式分为三类:

  • 数据:此类方法利用先验知识来增强训练数据集或者增加样本数量(从样本量的角度)
  • 1.使用旋转,翻转,裁剪等方法对训练集图像增强
  • 2.从其他数据集获取图像用于扩充训练集
  • 3.使用GAN来生成具有相似分布的数据用于扩充训练集
  • 模型:此类方法利用先验知识来限制假设空间的复杂性(从模型训练的角度)
  • 1.多任务学习(同时进行多个相关任务训练,共享表示,以获得更好的泛化能力)与迁移学习不同(将源任务中学到的知识运用到目标任务中) parameter sharing:多任务间共享参数(例如最开始几层网络结构共享,最后输出层单独训练) parameter typing:对不同任务的参数正则化处理,使其参数相似(encourages parameters of different tasks to be similar using regularization)
  • 2.嵌入学习(将样本映射(嵌入)到低纬度空间后,相似样本距离更近,不相似样本距离远)
  • Task-Specific Embedding Model:只使用来自任务的信息学习一个定制的嵌入函数
  • Task-Invariant Embedding Model:将从其他充足样本中学到的信息直接利用到小样本学习任务中
  • Matching Nets
  • Prototypical Networks(ProtoNet)
  • Hybrid Embedding Model: 前两种方法的结合,使用小样本任务中的task specific信息运用到从先验知识学到的task invariant嵌入模型
  • 3.带有存储的模型,构建键值存储,并优化内存,每个新样本都可以由内存中提取出的内容的加权平均值表示(通过查询相似性),进一步限制假设空间。
  • 优化表征(representation)
  • 优化参数(parameter)
  • 4.生成模型,对于样本x在先验知识的帮助下可以估计其分布p(x):假设x的分布可以表示为受θ约束的p(x;θ),并且通常还存在潜在变量zp(z;y),因此xp(x|z;θ)p(z;y)dz,即在先验分布p(z;y)的帮助下,可以进一步缩小假设空间的大小.
  • Decomposable Components:训练可分解组件模型,在不同任务间共享分解组件的信息,最后再找到分解组件的组合方式(模型层面?)
  • Groupwise Shared Prior:使用无监督学习将数据集分组,对于新类别,首先查询其所属组,再根据其所属组的先验概率建模(相似的任务拥有相似的先验概率)
  • Parameters of Inference Networks:找到最佳的θ,使得最大化p(z|x;θ,γ)=p(x,z;θ,γ)p(x;γ)=p(x|z;θ)p(z;γ)p(x|z;θ)p(z;γ)dz,通常使用从数据中学到的变分分布q(z;δ)来估计p(z|x;θ,γ)。(?)
  • 算法:此类方法利用先验知识在假设空间中搜索最优的假设
  • 1.精炼现存参数
  • 使用预训练模型,通过正则化进行微调
  • Early-stopping
  • Selectively updating parameters
  • Updating related parts of parameters together
  • Using a model regression network
  • 聚集子任务的参数(参数层面?)
  • 使用新参数微调现有参数:给模型参数扩充一个δ,使其参数为θ=θ0,δ,然后通过学习δ来微调初始参数θ0
  • 2.精炼Meta-Learned参数
  • 3.学习优化器:不使用梯度下降来更新参数,而是通过学习一个优化器来输出参数的更新,即Δθi1

3. 小样本学习常用数据集

小样本常用Benchmark图像数据集:

  • Omniglot
  • Mini-Imagenet
  • CU-Birds
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-01-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
您好,我想问一下您文章中第3张图片,也就是关于sample/class 的图片来自于哪篇论文?想了解一下有关定义
您好,我想问一下您文章中第3张图片,也就是关于sample/class 的图片来自于哪篇论文?想了解一下有关定义
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
Few-Shot Learning(少样本学习)
Few-Shot Learning(少样本学习)是一种机器学习范式,旨在使模型能够在只有少量标注数据的情况下快速适应新任务或识别新的类别。这种能力对于许多实际应用场景非常重要,因为在这些场景中获取大量标注数据可能是昂贵、耗时甚至是不可能的。以下是关于Few-Shot Learning的详细解析:
jack.yang
2025/04/05
2350
Meta Learning元学习和Few-Shot Learning
Meta Learnig,元学习,就是能够让机器学习如何去学习(Learning to Learning),Meta学习算法能够依据自己表现的反馈信号及时地不断的调整其结构和参数空间, 使得模型能够在新环境中通过累计经验提升表现性能,举个例子就是,机器之前学习了100个task,之后机器学习第101个task的时候,会因为之前学习的100个task所具有的学习能力,学习到了如何更好的获取特征知识的方法,而让第101个task表现得更好。这里前面的100个学习任务可以是语音识别、图像识别等等,新的任务可以和前面的100个任务没有任何关联,机器会因为之前所学到的任务,所以在后面的任务学习得更好。
Minerva
2020/05/29
2.5K0
Meta Learning元学习和Few-Shot Learning
小样本学习(Few-shot Learning)综述
笔者所在的阿里巴巴小蜜北京团队就面临这个挑战。我们打造了一个智能对话开发平台——Dialog Studio,以赋能第三方开发者来开发各自业务场景中的任务型对话,其中一个重要功能就是对意图进行分类。大量平台用户在创建一个新对话任务时,并没有大量标注数据,每个意图往往只有几个或十几个样本。
机器之心
2019/04/29
5.9K0
小样本学习(Few-shot Learning)综述
从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)
论文题目:Generalizing from a Few Examples: A Survey on Few-shot Learning(ACM Computing Surveys,中科院 1 区)
叶庭云
2024/05/25
1.2K0
从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)
深度学习系列笔记(五)
连续数学在数字计算机上的根本困难是,我们需要通过有限数量的位模式来表示无限多的实数。这将导致误差,即使理论上可行的算法,如果在设计时没有考虑最小化舍入误差的累积,在实践时也可能会导致算法的失效。
Marigold
2022/06/17
6220
深度学习系列笔记(五)
Meta-Transfer Learning for Few-Shot Learning:元迁移学习的小样本学习
元学习(meta-learning)是目前广泛使用的处理小样本学习问题的方法,它的目的是在学习不同任务的过程中积累经验,从而使得模型能够快速适应新任务。比如在MAML(Model-Agnostic Meta- Learning)中,通过搜寻最优初始化状态,使得base-learner能够快速适应新任务。但是这一类元学习方法具有两个缺点:
智能生信
2021/02/04
3.5K0
小样本学习只是一场学术界自嗨吗?
这两年看见很多人,都在批评few-shot learning,觉得是学术界在自high,思考良久,感觉有必要给这个领域正个名~(注意,本文仅关注few-shot image classification)
Color Space
2022/05/26
8510
小样本学习只是一场学术界自嗨吗?
使用PyTorch进行小样本学习的图像分类
近年来,基于深度学习的模型在目标检测和图像识别等任务中表现出色。像ImageNet这样具有挑战性的图像分类数据集,包含1000种不同的对象分类,现在一些模型已经超过了人类水平上。但是这些模型依赖于监督训练流程,标记训练数据的可用性对它们有重大影响,并且模型能够检测到的类别也仅限于它们接受训练的类。
deephub
2022/11/11
1.1K0
使用PyTorch进行小样本学习的图像分类
ICLR 2021 | 基于自监督学习的小样本分类,代码已开源
深度神经网络往往要求为每个新任务收集大量标记训练数据,实用性也因此受到限制。给定来自一组源任务的数据,有两种迁移学习方法可以克服这种限制:小样本学习 (FSL) 和自监督学习 (SSL)。前者通过在源任务中设计元集(episode),模拟使用少量标记样本解决新任务的挑战,从而学习“如何学习”。相比之下,后者在所有源任务中利用无标注的代理任务来学习可泛化的特征表示。
AI科技评论
2021/07/03
1.5K0
ICLR 2021 | 基于自监督学习的小样本分类,代码已开源
概述小样本学习的具体应用场景
小样本学习(Few-shot Learning,FSL)作为机器学习的一个重要分支,特别强调从极少量的标注数据中学习和泛化的能力。这在众多领域都有广泛的应用,主要是因为在现实世界中,获取大量标注数据往往是成本高昂且时间消耗巨大的。以下是八种小样本学习的具体应用场景及其特点:
叶庭云
2024/05/24
6360
求问meta-learning和few-shot learning的关系是什么?
我们倾向于把few-shot learning理解成这样一个问题--如何训练一个模型使其基于少量的训练样本能在目标任务中获得好的性能。
zenRRan
2019/09/17
1.5K0
小样本学习介绍
在大多数时候,你是没有足够的图像来训练深度神经网络的,这时你需要从小样本数据快速学习你的模型。
范中豪
2019/09/05
1.8K0
小样本学习介绍
从 CVPR 2019 一览小样本学习研究进展
AI 科技评论按:随着研究者们对样本利用效率的要求日益提高,小样本学习逐渐成为了 AI 领域以及相关顶会最热门的话题之一。色列特拉维夫大学的在读博士研究生 Eli Schwarts 参加完 CVPR 2019 后,针对今年 CVPR 2019 的热点之一——小样本学习整理出了一份论文清单,供大家从 CVPR 的维度一览小样本学习在目前的研究进展。
AI科技评论
2019/07/30
9010
从 CVPR 2019 一览小样本学习研究进展
【机器学习】小样本学习的实战技巧:如何在数据稀缺中取得突破
小样本学习,作为一种高效的学习范式,旨在利用极为有限的标注样本训练出具备强大泛化能力的模型。其核心策略巧妙地融合了迁移学习、元学习以及数据增强等多种技术,以应对数据稀缺的挑战,进而推动模型在少量数据条件下的有效学习与适应。
2的n次方
2024/10/15
6730
【机器学习】小样本学习的实战技巧:如何在数据稀缺中取得突破
学习让机器学会学习-Meta Learning课程笔记-1
来源于李宏毅老师机器学习课程,笔记是其中meta learning部分,few-shot learning学习也可以观看此部分课程。
百川AI
2021/10/19
5270
当小样本遇上机器学习 fewshot learning
深度学习(deep learning)已经广泛应用于各个领域,解决各类问题,例如在图像分类问题下,如图1,区分这10类目标的准确率目前可以轻松做到94%。然而,deep learning是一种data hungry的技术,需要大量的标注样本才能发挥作用。
全栈程序员站长
2022/08/11
8940
当小样本遇上机器学习 fewshot learning
ICLR 2023杰出论文奖得主分享:适配任意密集预测任务的通用小样本学习器
---- 新智元报道   来源:微软亚洲研究院 作者:罗翀 【新智元导读】近期,来自KAIST和MSRA的研究员提出了首个适配所有密集预测任务的小样本学习器 VTM,以轻量化的迁移成本,赋予了计算机视觉模型预测新任务标签的能力,为计算机视觉中密集预测任务的处理以及小样本学习方法打开了全新思路。 国际学习表征会议 ICLR(International Conference on Learning Representations),被公认为当前最具影响力的机器学习国际学术会议之一。 在今年的 ICLR
新智元
2023/05/09
3150
ICLR 2023杰出论文奖得主分享:适配任意密集预测任务的通用小样本学习器
小样本学习 | ProtoNet,基于度量的Few-Shot分类网络
ProtoNet,即原型网络,其想法非常直接但有效,即对每张图像都先用神经网络得到一个特征表示,然后对支持集中每个类别的所有特征取一个平均,作为这个类别的类中心,最后比较查询集和各个类中心之间的距离,取最近的一个类别作为预测结果。
Justlovesmile
2022/04/11
7K0
小样本学习 | ProtoNet,基于度量的Few-Shot分类网络
Python 单样本学习实用指南:1~6 全
深度学习给制造业带来了重大变化,无论是制造业,医疗还是人力资源。 通过这一重大革命和概念验证,几乎每个行业都在尝试调整其业务模型以适应深度学习,但是它有一些主要要求,可能并不适合每个业务或行业。 阅读本节后,您将对深度学习的优缺点有适当的了解。
ApacheCN_飞龙
2023/04/27
1.4K0
干货!少样本学习的概述!
少样本学习(Few-Shot Learning,FSL)是机器学习领域中的一种重要技术,其目标是在仅使用少量样本(例如50个或更少)的情况下,设计出能够高效学习和准确预测的机器学习模型。这种技术在许多应用领域都具有重要的实际意义,例如在数据标注成本较高的场景中,或者在面对快速变化的任务时。应用包括图像分类、情感分类和对象识别。
算法进阶
2024/06/13
5660
干货!少样本学习的概述!
推荐阅读
相关推荐
Few-Shot Learning(少样本学习)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档