Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【小样本识别】开源 | 基于动态蒸馏网络的无标签数据跨域Few-Shot识别

【小样本识别】开源 | 基于动态蒸馏网络的无标签数据跨域Few-Shot识别

作者头像
CNNer
发布于 2021-09-23 09:32:43
发布于 2021-09-23 09:32:43
8600
举报
文章被收录于专栏:CNNerCNNer

获取完整原文和代码,公众号回复:10050657380

论文地址: http://arxiv.org/pdf/2106.07807v1.pdf

代码: 公众号回复:10050657380

来源: Rensselaer Polytechnic Institute, MIT-IBM Watson AI Lab

论文名称:Dynamic Distillation Network for Cross-Domain Few-Shot Recognition with Unlabeled Data

原文作者:Ashraful Islam

内容提要

现有的few-shot学习大多依赖于元学习,即在一个大的基本数据集上进行网络学习,而这些数据集通常来自与目标数据集相同的领域。我们解决了在基域和目标域之间存在较大偏移的跨域few-shot学习问题。在文献中,未标记目标数据的跨域few-shot识别问题没有得到很好的解决。STARTUP是第一个通过自我训练解决这个问题的方法。然而,它使用一个固定的教师预先训练的标签基础数据集为未标签的目标样本创建软标签。由于基础数据集和未标记数据集来自不同的域,使用固定的预训练模型将目标图像投影到基础数据集的类域可能是次优的。我们提出了一种简单的基于动态蒸馏的方法,从而帮助新的/基础数据集中的未标记图像。通过计算来自教师网络的未标记图像的弱增强版本的预测,并将其与来自学生网络的相同图像的强增强版本进行匹配,我们实现了一致性正则化。将教师网络的参数更新为学生网络参数的指数移动平均。我们表明,所提出的网络学习表示可以很容易地适应目标域,即使它没有在训练前阶段与目标特定的类训练。在BSCD-FSL基准测试中,我们的模型在1-shot分类和5-shot分类上分别比现有的方法提高了4.4%和3.6%,在传统的领域内few-shot学习任务中也表现出了较好的性能。

主要框架及实验结果

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-09-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CNNer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
复旦大学提出《Meta-FDMixup》解决"跨域小样本学习"中的域偏移问题
这篇文章『Meta-FDMixup: Cross-Domain Few-Shot Learning Guided by Labeled Target Data』是 ACM Multimedia 2021 上的工作,主要是做 cross-domain few-shot learning,文章主要提出使用极少一部分 target 带标注数据来帮助模型的学习。
CV君
2021/12/13
3.3K0
复旦大学提出《Meta-FDMixup》解决"跨域小样本学习"中的域偏移问题
小样本学习只是一场学术界自嗨吗?
这两年看见很多人,都在批评few-shot learning,觉得是学术界在自high,思考良久,感觉有必要给这个领域正个名~(注意,本文仅关注few-shot image classification)
Color Space
2022/05/26
8580
小样本学习只是一场学术界自嗨吗?
小样本学习只是一场学术界自嗨吗
每天给你送来NLP技术干货! ---- 文 | ALme@知乎 排版 | 夕小瑶的卖萌屋 这两年看见很多人,包括我实习的mentor在内,都在批评few-shot learning,觉得是学术界在自high,思考良久,感觉有必要给这个领域正个名~(注意,此答案仅关注few-shot image classification) 首先,要讨论few-shot learning的价值,咱得先把few-shot learning(FSL)这个问题的定位搞清楚。而要搞清楚few-shot learning的定
zenRRan
2022/05/09
1.3K0
小样本学习只是一场学术界自嗨吗
ICLR 2021 | 基于自监督学习的小样本分类,代码已开源
深度神经网络往往要求为每个新任务收集大量标记训练数据,实用性也因此受到限制。给定来自一组源任务的数据,有两种迁移学习方法可以克服这种限制:小样本学习 (FSL) 和自监督学习 (SSL)。前者通过在源任务中设计元集(episode),模拟使用少量标记样本解决新任务的挑战,从而学习“如何学习”。相比之下,后者在所有源任务中利用无标注的代理任务来学习可泛化的特征表示。
AI科技评论
2021/07/03
1.6K0
ICLR 2021 | 基于自监督学习的小样本分类,代码已开源
小样本学习(Few-shot Learning)综述
笔者所在的阿里巴巴小蜜北京团队就面临这个挑战。我们打造了一个智能对话开发平台——Dialog Studio,以赋能第三方开发者来开发各自业务场景中的任务型对话,其中一个重要功能就是对意图进行分类。大量平台用户在创建一个新对话任务时,并没有大量标注数据,每个意图往往只有几个或十几个样本。
机器之心
2019/04/29
5.9K0
小样本学习(Few-shot Learning)综述
ImageNet的top-1终于上了90%,网友质疑:用额外数据集还不公开,让人怎么信服?
近日,谷歌大脑研究科学家、AutoML 鼻祖 Quoc Le 发文表示,他们提出了一种新的半监督学习方法,可以将模型在 ImageNet 上的 top-1 准确率提升到 90.2%,与之前的 SOTA 相比实现了 1.6% 的性能提升。
机器之心
2021/01/26
8840
ImageNet的top-1终于上了90%,网友质疑:用额外数据集还不公开,让人怎么信服?
【知识蒸馏】Deep Mutual Learning
引言 首先感谢:https://github.com/AberHu/Knowledge-Distillation-Zoo
BBuf
2021/11/19
9060
【知识蒸馏】Deep Mutual Learning
CVPR 2022 Oral | 大连理工提出小样本识别DeepBDC,6项基准性能最好
机器之心专栏 作者:谢江涛、龙飞、吕佳铭、王旗龙、李培华 在本文中,来自大连理工大学等机构的研究者提出了 DeepBDC 用于小样本分类任务,DeepBDC 通过度量样本对之间的联合分布从而获得更准确的相似度,极大的提升了小样本分类的性能。论文已被 CVPR 2022 接收为 Oral Presentation。 本文首次将布朗距离协方差这一基于概率和统计的相似性度量引入到深度学习中,提出了一种端到端的小样本识别方法 DeepBDC。所提出的方法在包括一般目标识别、细粒度分类和跨域分类等任务的 6 个标准数
机器之心
2022/04/24
9260
CVPR 2022 Oral | 大连理工提出小样本识别DeepBDC,6项基准性能最好
从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)
论文题目:Generalizing from a Few Examples: A Survey on Few-shot Learning(ACM Computing Surveys,中科院 1 区)
叶庭云
2024/05/25
1.3K0
从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)
CVPR2022:局部和全局知识蒸馏用于目标检测(源代码开源)
关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 论文地址:https://arxiv.org/pdf/2111.11837.pdf 源代码: https://github.com/yzd-v/FGD 计算机视觉研究院专栏 作者:Edison_G 知识蒸馏已成功应用于图像分类。然而目标检测要复杂得多,大多数知识蒸馏方法都失败了。 01 前言 在目标检测中,教师和学生的特征在不同的区域有很大的差异,尤其是在前景和背景中。如
计算机视觉研究院
2022/04/06
8920
CVPR2022:局部和全局知识蒸馏用于目标检测(源代码开源)
提升精度 | 新的小样本学习算法提升物体识别精度(附论文地址)
事实证明,深度学习在大量标记数据的学习中是非常有效的。很少有shot learning,相反,试图学习只有少数标签数据。
计算机视觉研究院
2020/09/02
1.5K0
「知识蒸馏」最新2022研究综述
每天给你送来NLP技术干货! ---- 来自:专知 华南师范大学等《知识蒸馏》最新综述论文 高性能的深度学习网络通常是计算型和参数密集型的,难以应用于资源受限的边缘设备. 为了能够在低 资源设备上运行深度学习模型,需要研发高效的小规模网络. 知识蒸馏是获取高效小规模网络的一种新兴方法, 其主要思想是将学习能力强的复杂教师模型中的“知识”迁移到简单的学生模型中. 同时,它通过神经网络的互 学习、自学习等优化策略和无标签、跨模态等数据资源对模型的性能增强也具有显著的效果. 基于在模型压缩和 模型增强上的优越特
zenRRan
2022/03/24
3K0
当小样本遇上机器学习 fewshot learning
深度学习(deep learning)已经广泛应用于各个领域,解决各类问题,例如在图像分类问题下,如图1,区分这10类目标的准确率目前可以轻松做到94%。然而,deep learning是一种data hungry的技术,需要大量的标注样本才能发挥作用。
全栈程序员站长
2022/08/11
9270
当小样本遇上机器学习 fewshot learning
知识蒸馏(Knowledge Distillation)
本文主要罗列与知识蒸馏相关的一些算法与应用。但首先需要明确的是,教师网络或给定的预训练模型中包含哪些可迁移的知识?基于常见的深度学习任务,可迁移知识列举为:
全栈程序员站长
2022/07/01
2.9K0
知识蒸馏(Knowledge Distillation)
CVPR 2022 | 提高小数据集利用效率,复旦等提出分层级联ViT网络
机器之心专栏 戈维峰 复旦大学 来自复旦大学、上海市智能信息处理重点实验室和香港大学的研究者提出了一种基于 DINO 知识蒸馏架构的分层级联 Transformer (HCTransformer) 网络。 小样本学习是指从非常少量的标记数据中进行学习的问题,它有望降低标记成本,实现低成本、快速的模型部署,缩小人类智能与机器模型之间的差距。小样本学习的关键问题是如何高效地利用隐藏在标注数据中的丰富信息中进行学习。近年来,视觉 Transformer (ViT [1]) 作为计算机视觉领域的新兴架构,因其在很多
机器之心
2022/07/18
4740
CVPR 2022 | 提高小数据集利用效率,复旦等提出分层级联ViT网络
​田渊栋:ReLU神经网络的可证明理论性质
在本文中,Facebook人工智能研究院研究员、卡耐基梅隆大学机器人系博士田渊栋以ReLU网络为例,分享了深度学习理论和可解释性方面的研究进展。田渊栋博士提到,在学生-教师设置下的ReLU神经网络中,存在学生网络和教师网络的节点对应关系,通过对这种关系的分析,可以帮助我们理解神经网络的学习机制,以及剪枝、优化、数据增强等技术的理论基础。
AI科技评论
2020/08/10
6650
​田渊栋:ReLU神经网络的可证明理论性质
CVPR2020最佳检测 | 带有注意力RPN和多关系检测器的小样本目标检测网络
传统的目标检测方法通常需要大量的训练数据,并且准备这样高质量的训练数据是劳动密集型的(工作)。在本文中,我们提出了少量样本的目标检测网络,目的是检测只有几个训练实例的未见过的类别对象。我们的方法的核心是注意力RPN和多关系模块,充分利用少量训练样本和测试集之间的相似度来检测新对象,同时抑制背景中的错误检测。为了训练我们的网络,我们已经准备了一个新的数据集,它包含1000类具有高质量注释的不同对象。据我们所知,这也是第一个数据集专门设计用于少样本目标检测。一旦我们的网络被训练,我们可以应用对象检测为未见过的类,而无需进一步的训练或微调。我们的方法是通用的,并且具有广泛的应用范围。我们证明了我们的方法在不同的数据集上的定性和定量的有效性。
计算机视觉研究院
2020/04/14
1.6K0
位置蒸馏:针对目标检测提高定位精度的知识蒸馏
今日分享一篇最近新出的目标检测论文『Localization Distillation for Object Detection』
CV君
2021/05/07
1.2K0
位置蒸馏:针对目标检测提高定位精度的知识蒸馏
SEMI-SUPERVISED OBJECT DETECTION FRAMEWORK WITH OBJECT FIRST MIXUPFOR REMOTE SENSING IMAGES
本文提出了一个用于遥感图像的简单半监督目标检测框架,该框架被命名为SSOD-RS。SSOD-RS包含两个部分,即改进的自我训练和基于强数据增强的一致性正则化,以及改进的混合。首先,作为一种增强算法,提出了Object First mixup(OF-mixup)来调整物体和背景的权重,扩大了训练样本的分布,同时减少了遥感复杂背景对物体特征的干扰。其次,在自训练中引入了集合损失和微调的训练策略,使模型在学习了伪标签的特征后,适应真实标签的特征分布。实验结果表明,利用无标签图像的SSOD-RS可以极大地提高模型的准确性。
狼啸风云
2023/10/07
2740
SEMI-SUPERVISED OBJECT DETECTION FRAMEWORK WITH OBJECT FIRST MIXUPFOR REMOTE SENSING IMAGES
知识蒸馏综述:网络结构搜索应用
知识蒸馏可以看做教师网络通过提供soft label的方式将知识传递到学生网络中,可以被视为一种更高级的label smooth方法。soft label与hard label相比具有以下优点:
BBuf
2021/12/15
1.2K0
知识蒸馏综述:网络结构搜索应用
推荐阅读
相关推荐
复旦大学提出《Meta-FDMixup》解决"跨域小样本学习"中的域偏移问题
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档