Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >精选论文 | 元学习与增量学习【附打包下载】

精选论文 | 元学习与增量学习【附打包下载】

作者头像
马上科普尚尚
发布于 2020-05-11 09:32:23
发布于 2020-05-11 09:32:23
1.7K0
举报

关注文章公众号 回复"SFFAI26论文"获取本主题精选论文

元学习(Meta Learning)和增量学习(Incremental Learning)是目前机器学习理论中比较火热的研究方向。两位报告嘉宾为大家精选了近期元学习和增量学习领域的代表性文章,同时和大家一起交流分享自己最新的研究工作。

你可以认真阅读,来现场和讲者面对面交流哦。

1

推荐理由:知识蒸馏的开山之作。在实际应用中,为了方便部署,通常需要将一个大网络(或者多个网络)的知识传递给一个小网络,作者提出一种在不同网络之间进行知识传递的方式,称为知识蒸馏。在相同输入的情况下,通过使小网络的输出和大网络的输出尽可能地接近从而模拟大网络的行为。此外,引入了一个参数T(temperature)使得大网络的输入变得平滑,更有利于小网络的学习。

推荐理由来自:侯赛辉

2

推荐理由:首次将知识蒸馏引入多任务增量学习。在多任务增量学习的某一阶段,输入为在旧任务数据上训练的模型(称为Original CNN)和新任务的数据。在训练开始前,首先记录Original CNN以新任务数据作为输入的输出结果。在训练过程中,计算更新后的模型对于新任务数据在旧任务类别上的预测概率,使之接近于所记录的Original CNN的输出,通过这种方式保持在旧任务上的性能。

推荐理由来自:侯赛辉

3

推荐理由:多类别增量学习代表性的工作。多类别增量学习相对于多任务增量学习更具有挑战性,在每个阶段需要在当前阶段观测到的所有类别之间进行判别。iCaRL在Learning without Forgetting的基础上引入了Nearest-Mean-of-Exemplars的分类策略,能够有效避免新旧样本之间的混淆。此外,提出为每个旧类别保留少量的样本,并提出基于Herding的方法在每个类别内选取样本进行保留。

推荐理由来自:侯赛辉

4

推荐理由:将知识蒸馏用于多类别增量学习中新任务的学习。Learning without Forgetting中将知识蒸馏用于旧任务性能的保持,在这篇论文中提出将知识蒸馏用于新任务的学习。当一个新任务到来时,首先仅在新任务的数据训练一个模型称为Expert CNN,然后通过知识蒸馏的方式将新任务的知识从Expert CNN传递给Original CNN。通过这样方式可以使Original CNN学习新任务的知识变得更容易,同时也更有利于旧任务性能的保持。

推荐理由来自:侯赛辉

5

推荐理由:从样本不均衡的角度解决多类别增量学习问题。通过研究发现新旧类别的样本不均衡容易造成判别时新旧类别之间的混淆,是影响多类别增量学习的重要因素。论文所提出的方法主要包含三个模块,从网络正则化以及分离类别边界等角度分别来缓解样本不均衡所带来的负面影响,在每个增量学习阶段都取得了较高的准确率。

推荐理由来自:侯赛辉

6

推荐理由:早期比较要代表性的工作之一,其核心思想是根据当前任务和训练集学习一个最优的优化器,该优化器能够使得神经网络的梯度下降更快更准。

推荐理由来自:胡学财

7

推荐理由:Meta-Learning 来学习一个权重转换函数,该函数使用目标检测子模块的权重来预测掩码预测子模块的权重,这样只需要少数几个类别的掩码(mask)标注(标注成本大)和全部类别的bounding box(标注成本小)就能学习到一个对所有类别都可以进行掩码预测的网络。

推荐理由来自:胡学财

8

推荐理由:Meta-Learning 在目标检测任务上的应用,主要是针对之前的anchor必须预先定义好(不够灵活,当然最近也提出了一些无anchor的目标检测框架),MetaAnchor 可以任意定义anchor,并利用该anchor的信息通过权重预测模块预测出detection head 的权重,实现更加灵活有效的anchor机制。

推荐理由来自:胡学财

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-04-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能前沿讲习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
增量学习(Incremental Learning)小综述
人类有终身不断获取、调整和转移知识的能力,虽然在我们的一生中,我们确实倾向于逐渐忘记之前学习过的知识,但只有在极少的情况下,对新知识的学习会灾难性地影响已经学到的知识,这样的学习能力被称为增量学习的能力。
NewBeeNLP
2021/03/03
7.3K0
增量学习(Incremental Learning)小综述
万文长字总结「类别增量学习」的前世今生、开源工具包
机器之心转载 作者:思悥 随着统计机器学习的逐渐成熟, 现在已经是时候打破孤立学习地传统模式,转而研究终身学习, 将机器学习推向崭新的高度。 一、什么是终身学习(Life-Long Machine Learning)? 终身机器学习(或称终身学习)是一种高级的机器学习范式, 它通过不断学习,从过去的任务当中积累知识,并用这些知识帮助未来的学习。在这样的过程中,学习者的知识越来越丰富,学习效率也越来越高。这种学习能力的特质是人类智力的重要标志。 然而, 当前主流的机器学习范式是孤立学习的:给定训练数据集, 算
机器之心
2022/04/06
1.5K0
万文长字总结「类别增量学习」的前世今生、开源工具包
深度学习的类增量学习算法综述
近年来, 深度学习模型在众多领域取得了广泛成功. 现有的深度学习模型大多部署在静态环境下, 依赖提前收集好 的数据集进行离线训练, 模型一经确定, 便无法进一步更新. 然而, 现实中开放动态的环境往往存在以流形式不断到来的数据, 包括随时间演进不断产生的新类别数据. 因此, 理想的机器学习模型应能够从流式数据中不断学习新类, 从而增强自身的判别能力. 这样的学习范式被称作“类别增量学习”(class-incremental learning), 且近年来已成为机器学习领域的研究热点。扩展阅读:机器学习模型迭代方法(Python)
算法进阶
2023/08/28
2.4K0
深度学习的类增量学习算法综述
让模型实现“终生学习”,佐治亚理工学院提出Data-Free的增量学习
目前的计算机视觉模型在进行增量学习新的知识的时候,就会出现灾难性遗忘的问题。缓解这种遗忘的最有效的方法需要大量重播(replay)以前训练过的数据;但是,当内存限制或数据合法性问题存在时,这种方法就存在一定的局限性。
CV君
2021/09/03
9160
【论文推荐】了解《动态联邦学习》必看的6篇论文(附打包下载地址)
“SFFAI142期来自美国西北大学的王礼旭同学推荐的文章主要关注于基础研究的动态联邦学习领域。”
马上科普尚尚
2022/04/11
9750
【论文推荐】了解《动态联邦学习》必看的6篇论文(附打包下载地址)
PRM 与 HRM 双剑合璧 | 增量式 Vision Transformer 的参数有效跨任务提示 !
深度模型已经在解决各种单独的机器学习任务上取得了卓越的性能。然而,在实际应用中,训练数据通常是顺序接收的,而不是一次性全部可用。因此,为深度模型装备在动态环境中学习的能力是深度学习(DL)的一个长期目标。增量学习(IL)涉及跨不同任务动态学习深度模型,并且经常遭受对先前学习任务性能下降的问题,这被称为灾难性遗忘(CF)。最近,基于排练的方法可以通过在固定内存缓冲区中保留一些旧任务的代表性样本(即示例)有效地减轻IL中的遗忘。然而,在严格保护隐私和内存严重受限的情况下,这些方法无法奏效,因为旧任务的样本不可用,且内存缓冲区有限。在本文中,作者专注于无需示例和内存严重受限的增量学习(RFMCIL)的策略,该策略无需示例并且在内存严重受限的情况下训练深度模型。
AIGC 先锋科技
2024/07/20
2050
PRM 与 HRM 双剑合璧 | 增量式 Vision Transformer 的参数有效跨任务提示 !
「知识蒸馏+持续学习」最新综述!哈工大、中科院出品:全新分类体系,十大数据集全面实验
知识蒸馏(Knowledge Distillation, KD)已逐渐成为持续学习(Continual Learning, CL)应对灾难性遗忘的常见方法。
新智元
2025/02/15
3040
「知识蒸馏+持续学习」最新综述!哈工大、中科院出品:全新分类体系,十大数据集全面实验
精选论文 | 图神经网络时间节点【附打包下载】
最近,图神经网络广泛受到了各界的关注,基于图神经网络的模型和应用在异质图表示学习和零样本学习任务中取得了不错的效果。今天,两位主讲嘉宾为大家精选了图神经网络方法中的几个代表性模型以及零样本学习模型,和大家一起学习分享最新的研究进展。
马上科普尚尚
2020/05/11
5940
精选论文 | 图神经网络时间节点【附打包下载】
Nature Machine Intelligence | 三种类型的增量学习
今天给大家带来一篇剑桥大学有关增量学习的文章。从非平稳的数据流中渐进地学习新信息,被称为“持续学习”,是自然智能的一个关键特征,但对深度神经网络来说是一个具有挑战性的问题。近年来,许多用于持续学习的深度学习方法被提出,但由于缺乏共同的框架,很难比较它们的性能。为了解决这个问题,我们描述了持续学习的三种基本类型或“场景”:任务增量式学习、领域增量式学习和类增量式学习。每一种情况都有自己的挑战。为了说明这一点,作者通过根据每个场景执行Split MNIST和Split CIFAR-100协议,对目前使用的持续学习策略进行了全面的实证比较。作者证明了这三种情况在难度和不同策略的有效性方面存在实质性差异。提出的分类旨在通过形成清晰定义基准问题的关键基础来构建持续学习领域。
智能生信
2022/12/29
11.2K1
Nature Machine Intelligence | 三种类型的增量学习
ACL2022 | 类增量学习的少样本命名实体识别
每天给你送来NLP技术干货! ---- ©作者 | 回亭风 单位 | 北京邮电大学 研究方向 | 自然语言理解 来自 | PaperWeekly 论文标题: Few-Shot Class-Incremental Learning for Named Entity Recognition 收录会议: ACL 2022 论文链接: https://aclanthology.org/2022.acl-long.43 Abstract 之前的面向 NER 的类增量学习的工作都是基于新类有丰富的监督数据的情况,本文
zenRRan
2022/09/02
1K0
ACL2022 | 类增量学习的少样本命名实体识别
精选论文 | 机器翻译【附打包下载】
机器翻译一直是自然语言处理领域的热门及前沿方向,不论是sequence-to-sequence架构,attention mechanism还是Transformer模型等,都和机器翻译有着最为紧密的关系。6月2日(周日),《SFFAI 32-机器翻译》两位主讲嘉宾(张文,邵晨泽)为大家精选了机器翻译近期在模型、训练、解码以及非自回归结构中的几篇代表性工作,和大家一起学习分享最新的研究进展。
马上科普尚尚
2020/05/11
5380
精选论文 | 机器翻译【附打包下载】
深度学习 | 论文笔记(Lifelong Zero-Shot Learning)
https://www.ijcai.org/Proceedings/2020/0077.pdf
Justlovesmile
2021/12/14
2K0
深度学习 | 论文笔记(Lifelong Zero-Shot Learning)
精选论文 | 情感语音识别与合成【附打包下载】
人机交互是人工智能的重要研究热点。而关于情感的研究使得人机交互变得更加有温度。情感语音识别要求从语音中准确的识别人类所具有的情感表达,有助于机器对于我们语义的理解;而情感语音合成则是为了使得机器合成的语音更加自然,更加具有温度。因此6月1日(周六),《SFFAI31期-情感语音识别与合成论坛》邀请两位出色的博士生(黄健,郑艺斌),分别从情感语音识别与合成两个维度来给带大家了解人机交互。
马上科普尚尚
2020/05/11
1.1K0
精选论文 | 情感语音识别与合成【附打包下载】
增量学习,,,
增量学习作为机器学习的一种方法,现阶段得到广泛的关注。在其中,输入数据不断被用于扩展现有模型的知识,即进一步训练模型,它代表了一种动态的学习的技术。对于满足以下条件的学习方法可以定义为增量学习方法:
狼啸风云
2022/06/08
7300
CLFace:一个可扩展且资源高效的终身人脸识别持续学习框架 !
尽管近年来在面部识别(FR)方面取得了显著的进步 ,但为了使FR模型在实际监控应用中可行,仍需关注几个关键领域。在实际部署中,主要挑战是当数据流中不断出现新身份批次时,需要更新现有的FR模型,这些数据流中可能混有新的和之前学习过的身份。例如,在一个机场的智能监控系统中部署的FR模型必须不断学习识别每天成千上万的新身份。然而,最先进的基于深度神经网络的FR模型通常在离线情况下使用静态数据集进行训练,无法动态适应,需要完全重新训练。此外,在大规模数据集上重新训练这些网络面临实际挑战,包括计算需求高、存储限制和隐私问题 [20]。
未来先知
2024/12/25
1870
CLFace:一个可扩展且资源高效的终身人脸识别持续学习框架 !
一文概述联邦持续学习最新研究进展
由于数据隐私限制,多个中心之间的数据共享受到限制,这就影响了联邦学习架构下多中心合作开发高性能深度学习模型的效果。持续学习(Continual Learning)作为点对点联合学习的一种方法,可以通过共享中间模型而不是训练数据来绕过数据隐私的限制,从而促进多中心协作开发深度学习算法。近期不断有研究人员探索联邦持续学习方法(Federated Continual Learning,FCL),即,研究持续学习在联邦学习架构下多中心协作的可行性。
机器之心
2023/08/07
1.6K0
一文概述联邦持续学习最新研究进展
论文笔记系列--iCaRL: Incremental Classifier and Representation Learning
title: 论文笔记系列--iCaRL: Incremental Classifier and Representation Learning
marsggbo
2019/01/25
3.2K0
论文笔记系列--iCaRL: Incremental Classifier and Representation Learning
与时代共振,AI助力工业缺陷检测
[ 摘要 ]由于深度学习强大的特征提取能力,代替了人工目检和传统的机器视觉,成为了工业缺陷检测的新利器。然而,基于深度学习的语义分割技术在工业缺陷检测领域的应用仍具有挑战性。本文先对比自然场景下的语义分割,概述了工业缺陷检测背景下语义分割技术的特点;接着,对于工业缺陷检测的常见难点,对常见的解决方案进行介绍。最后,作者提出了关于工业缺陷检测实际应用中一些问题的思考。
数据派THU
2021/10/19
1.1K0
你的神经网络会忘了学到的东西?
我们的大脑是个不断进化的物体,一直在持续不断修改自身的结构,以保留新的信息,并根据我们与环境的互动去掉旧的信息。正如我们所知,人工神经网络及其激活网最初是仿照大脑建立的。然而,大多数人工神经网络在结构上是静态的,依赖于批量学习,在训练时它们被输入很多批独立同分布(IID)数据,并且学习到的参数在部署时被固定,这与我们大脑的学习方式不一样: 我们不是通过一次性处理随机批量的数据来学习,而是通过处理我们从感官接收到的关于我们周围环境的连续的相关信息流。
McGL
2020/09/27
8280
IROS 2019 机器视觉全球挑战赛:赋予 AI 终生学习能力(附冠军算法模型)
多位机器人领域大咖来到现场进行特邀报告和圆桌讨论,包括:意大利技术研究院科学主任 Giorgio Metta 教授、汉堡大学张建伟教授、浙江大学章国锋教授等知名学者,演讲主题从 Lifelong Learning 算法到 SLAM 均有涉猎;同时,决赛入围团队——海康威视、新加坡南洋理工大学、香港中文大学等也在现场向大家分享了赛事算法报告,我们将赛事内容及冠军方案整理如下。
AI研习社
2019/12/05
1.1K0
推荐阅读
相关推荐
增量学习(Incremental Learning)小综述
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档