前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >广告行业中那些趣事系列35:NLP场景中的对比学习模型SimCSE

广告行业中那些趣事系列35:NLP场景中的对比学习模型SimCSE

作者头像
数据拾光者
发布于 2022-05-05 05:44:24
发布于 2022-05-05 05:44:24
5000
举报
文章被收录于专栏:数据拾光者数据拾光者

导读:本文是“数据拾光者”专栏的第三十五篇文章,这个系列将介绍在广告行业中自然语言处理推荐系统实践。本篇从理论到实践介绍了NLP场景下常用的对比学习模型SimCSE,对于希望将对比学习模型SimCSE应用到NLP场景的小伙伴可能有所帮助。

摘要:本篇从理论到实践介绍了NLP场景下常用的对比学习模型SimCSE。首先介绍了业务背景,经过一系列调研NLP场景中简单有效的对比学习模型是SimCSE;然后重点介绍了SimCSE模型,包括评估对比学习模型的两个指标alignment和uniformity、NLP场景中使用对比学习模型的难点、SimCSE提出了一种基于dropout mask的方法来构造正负例、dropout mask方式有效性原因分析、有监督和无监督的SimCSE模型以及BERT系列模型和SimCSE模型效果对比;最后项目实践了SimCSE模型。对于希望将对比学习模型SimCSE应用到NLP场景的小伙伴可能有所帮助。

下面主要按照如下思维导图进行学习分享:

01

背景介绍及模型调研

上一篇介绍了当前风头正劲的对比学习以及在微博中的项目实践,虽然对比学习最早出现在CV领域,但是很快扩展到了自然语言处理等其他领域。熟悉我的小伙伴都知道,我主要做NLP以及推荐系统相关的,最终要用对比学习的话肯定也是主要应用在NLP场景中的,所以本篇重点是如何将对比学习应用到NLP场景,更重要的是如何应用到我们的实际业务场景中。调研了当前NLP场景中使用对比学习相关的资料,整体来看最适合的是SimCSE模型,因为无监督SimCSE模型在STS基准任务上达到了SOTA任务,并且超越了包括SBERT在内的有监督模型,下面是模型评估效果:

图1 STS基准任务各模型效果图

同时,苏剑林也在文献3中的中文数据集上进行了完整的实验,证明SimCSE模型的确优于其他语义相似度模型。所以调研SimCSE希望能作为SimBERT的升级版本用于线上业务。

02

详解NLP中的对比学习模型SimCSE

2.1 对比学习知识回顾

先简单回顾下对比学习,对比学习最早出现在CV领域,因为CV领域的研究者们想获得一个类似NLP领域中BERT那样的模型,可以通过无监督学习的方法利用海量的数据集构建预训练模型,从而获取图像的先验知识,然后通过迁移学习将获取的图像知识应用到下游任务中。对比学习的核心原则是:通过构造相似实例和不相似实例获得一个表示学习模型,通过这个模型可以让相似的实例在投影的向量空间中尽可能的接近,而不相似的实例尽可能的远离。为了达到这个目的,对比学习模型需要完成三件事:第一件事是如何构造相似实例和不相似实例;第二件事是如何构造满足上面对比学习核心原则的表示学习模型,也就是在向量空间中相似的实例距离尽可能接近,不相似的尽可能远离;第三件是如何防止模型坍塌。关于对比学习详细的知识小伙伴可以看下我写的上一篇文章:《广告行业中那些趣事系列34:风头正劲的对比学习和项目实践》。

本篇主要介绍的NLP场景中的对比学习模型SimCSE和经典模型SimCLR模型类似,都属于基于负例的对比学习方法。下面是SimCLR模型的整体结构图:

图2 SimCLR模型整体结构图

SimCLR模型最早是应用在图像领域中的基于负例的对比学习模型,通过图像样本增强技术来构造正负例,然后基于双塔模型的思想构造标准对称模型,将图像样本经过encode之后再经过projector拿到最终的特征向量zi。最后通过InfoNCE损失函数来使模型让相似的样本距离尽可能接近,不相似的样本尽可能远离。

2.2 如何评估对比学习模型的好坏

因为对比学习的目标是获得一个优质的语义表示学习空间,在这个空间中相似的样本尽量拉近,不相似样本尽量拉远,那么如何评估这个空间是否优质?文献2中提出了两个评估对比学习模型优劣的指标:alignment和uniformity。下面是两个指标的可视化视图:

图3 对比学习模型的两个评估指标

上图中左边部分是alignment指标,这个指标希望在向量空间中两个相似的向量距离应该尽可能拉近,很好理解,基本就是对比学习的指导原则。右边部分是uniformity指标,这个指标希望样本应该均匀的分布在向量空间中,主要原因是样本分布越均匀信息熵越高。举一个通俗的例子,现在有个动物园,我们希望动物园里面各类动物能尽量聚集在一起,同时我们还希望能更好的利用动物园,也就是让动物们均匀的分布在动物园里,让空间更好的被利用。

2.3 NLP场景中应用对比学习的难点

上面已经讲了在CV领域应用对比学习,其实将对比学习应用到NLP场景中也非常简单,套路是通过样本增强技术来构造正负例,然后构造标准对称结构,可以直接用BERT模型来进行encoder流程,至于是否需要再用BERT模型来进行projector流程可以根据实验结果来决定是否需要添加。这样的模型结构已经应用在微博的CD-TOM模型中了。这里其他还好说,最麻烦的是如何构造正负例,因为CV领域中可以很轻松的进行图像增强,比如对图片进行旋转、缩放、灰度变换等操作,这些图像增强技术不仅简单而且并不会带来太大的噪声。但是NLP领域中的样本增强技术则复杂的多,效果也降低严重。这时候就期待一种简单有效的获取相似文本的技术了。

2.4 基于dropout mask构造正负例的SimCSE模型

关于文本增强技术其实之前也分享过一篇文章《广告行业中那些趣事系列13:NLP中超实用的样本增强技术》,里面讲了包括样本回译、随机替换等等操作。通过这些方法也可以进行文本增强构造正负例,但是整体来看这些方法效果并不是很理想,而SimCSE模型作者提出了一种通过随机采样dropout mask的操作来构造相似样本。具体操作是在标准的Transformer中会在全连接层和注意力求和操作上进行dropout mask操作,模型训练的时候会将一条样本x复制两份,然后将这两条样本放到同一个编码器中就可以得到两个不同的表示向量z和zi。这么做的原因是BERT内部每次dropout时都会随机生成一个不同的dropout mask,所以不需要改变原始的BERT模型,只需要把样本喂给模型两次,就可以得到两个不同dropout mask的结果,这样就得到了相似样本对。这种方式的好处是相似样本的语义完全一致,只是生成的embedding不同而已,可以认为是数据增强的最小形式

2.5 为什么随机dropout mask方式有效

小伙伴可能有疑问了,为什么SimCSE这种随机dropout mask方式会有效?为了证明随机dropout mask方式的有效性,SimCSE模型的作者通过实验进行论证。下图是在STS-B数据集上几种不同的样本增强方法对比图:

图4 几种不同的样本增强方法效果对比

上图中None是SimCSE模型的效果指标,Crop k%表示随机减掉百分比k长度的span,Word deletion表示随机减掉百分比的词,Delete one word表示随机减掉一个词,MLM 15%表示BERT模型随机替换掉15%的词等等。通过对比这些眼花缭乱的样本增强技术,最后证明SimCSE这种随机采样dropout mask的效果是最好的

接着作者证明了采样比例对模型效果的影响,下图是对比不同的采样比例模型效果图:

图5 对比不同的采样比例模型效果

从上图可以看出,作者对比了从0到0.5不同随机采样比例下模型效果,其中效果最好的是使用0.1的随机采样比例。除此之外图中还有两种特殊指标:p=0和固定0.1时模型效果指标较差。p=0时相当于取消了随机dropout mask,固定0.1相当于对样本进行一样的随机dropout mask,这两种操作都会让得到的模型效果变差,主要原因是两者得到的相似样本对一模一样,模型很难学到知识。

SimCSE模型作者通过可视化的方式从alignment和uniformity两个指标对比了几种不同样本增强的方法:

图6 从alignment和uniformity对比模型效果

上图中横轴代表uniformity,纵轴代表alignment,模型效果越接近左下角越好,相反越接近右上角越差。整体来看通过SimCSE的随机dropout mask操作模型的效果是最好的。Fixed 0.1和No dropout随着uniformity效果提升alignment急速下降,而SimCSE因为dropout噪声使得uniformity效果提升同时alignment稳定在一个较好的范围内。虽然Delete one word的alignment相比于SimCSE有较小提升,但是uniformity却差于SimCSE模型。

2.6 有监督和无监督两种SimCSE模型结构

SimCSE模型提供了有监督和无监督两种语义相似度模型,下面是模型结构图:

图7 有监督和无监督SimCSE模型结构

上图中左边部分是无监督SimCSE模型,通过给定输入x用BERT预训练模型随机dropout mask编码两次得到相似样本作为正例,batch内其他样本作为负例。训练目标函数为:

图8 无监督SimCSE模型训练目标函数

右边部分是有监督SimCSE模型,使用NLI数据集中entailment关系样例对作为正例。负例包括两部分,第一部分是batch内其他样本作为负例,第二部分是NLI数据集中关系为contradiction的样例对。训练目标函数为:

图9 有监督SimCSE模型训练目标函数

2.7 BERT系列模型和SimCSE模型效果对比

学习SimCSE模型的一个重要原因是用于替代业务上常用的基于语义相似度匹配任务的SimBERT模型。SimBERT模型是追一科技苏剑林开源的有监督语义相似匹配模型,文献3苏神也在各种公共数据集上证明了SimCSE的确是目前SOTA。SimCSE模型作者从alignment和uniformity两个指标对比了各种BERT系列模型,下面是模型效果对比图:

图10 从alignment和uniformity对比BERT系列模型

从上图中可以看出直接通过BERT模型来做无监督语义相似度效果会比较差,主要原因是任意两个句子的BERT句向量相似度比较高,向量分布的非线性和奇异性,使得BERT句向量并没有均匀的分布在向量空间中,对应的信息熵也比较低。针对这个问题,BERT-flow通过normalizing flow把向量分布映射到规整的高斯分布中,有效的提升了uniformity。后来苏神提出了BERT-whitening对向量分布进行了PCA降维消除了冗余信息,进一步提升了uniformity,但是alignment有一定降低。而SimCSE则提出了一种更高效的方案,使得alignment保持在较好效果上还能大幅度提升uniformity,达到了当前的SOTA效果。

03

项目实践SimCSE

上一节详解了NLP场景中的对比学习模型SimCSE,这节从项目实践的角度分享下SimCSE。SimCSE的作者进行了项目开源,github地址如下:

https://github.com/princeton-nlp/SimCSE

使用起来非常简单,先安装对应的包:pip install simcse

下面是SimCSE模型应用代码:

图11 SimCSE模型应用代码

除了SimCSE作者开源的代码,苏神也开源了基于bert4keras框架的SimCSE模型代码,并在公共数据集上补充了实验结果,感兴趣的小伙伴可以看下文献3。开源github地址如下:https://github.com/bojone/SimCSE

04

总结及反思

本篇从理论到实践介绍了NLP场景下常用的对比学习模型SimCSE。首先介绍了业务背景,经过一系列调研NLP场景中简单有效的对比学习模型是SimCSE;然后重点介绍了SimCSE模型,包括评估对比学习模型的两个指标alignment和uniformity、NLP场景中使用对比学习模型的难点、SimCSE提出了一种基于dropout mask的方法来构造正负例、dropout mask方式有效性原因分析、有监督和无监督的SimCSE模型以及BERT系列模型和SimCSE模型效果对比;最后项目实践了SimCSE模型。对于希望将对比学习模型SimCSE应用到NLP场景的小伙伴可能有所帮助。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-08-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据拾光者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
广告行业中那些趣事系列47:NLP中对比学习SOTA必学模型ESimCSE
摘要:本篇从理论到实践分享了当前NLP中对比学习SOTA模型ESimCSE。首先回顾了无监督SimCSE以及存在的两个问题;然后重点详解了ESimCSE,包括ESimCSE介绍、通过词重复优化正例构建、通过动量对比优化负例构建和模型实验效果展示;最后源码实践了ESimCSE。对于想将对比学习应用到NLP场景的小伙伴可能有帮助。
数据拾光者
2022/05/05
4510
广告行业中那些趣事系列47:NLP中对比学习SOTA必学模型ESimCSE
广告行业中那些趣事系列34:风头正劲的对比学习和项目实践
摘要:本篇从理论到实践介绍了当前很火的对比学习模型。首先介绍了背景,主要是对比学习大火的原因以及如何应用到我们的实际业务中;然后从理论方面重点介绍了对比学习,包括对比学习的由来和目标、对比学习的指导原则以及构建模型的三个关键问题、对比学习分类,其中重点介绍了基于负例的对比学习方法中的SimCLR模型;最后介绍了微博将对比学习应用到自然语言处理场景和多模态场景项目实践。对于希望将对比学习应用到实际项目中的小伙伴可能有所帮助。
数据拾光者
2022/05/05
3260
广告行业中那些趣事系列34:风头正劲的对比学习和项目实践
广告行业中那些趣事系列49:oCTS:一个标注人员都可以优化分类器的训练系统
摘要:本篇主要介绍我们构建的oCTS分类器优化训练系统,一个标注人员都可以优化分类器的训练系统。首先介绍了项目背景和目标,oCTS主要针对人工可标注的数据场景又好又快的训练分类器;然后重点介绍了项目技术概要,涉及主动学习、弱监督学习、知识蒸馏等方面;接着展示了产品形态和效果;最后对项目进行了总结,并阐述未来优化方向。对于中小团队希望又快又好的训练分类器可能有所帮助。
数据拾光者
2022/05/05
4710
广告行业中那些趣事系列49:oCTS:一个标注人员都可以优化分类器的训练系统
对比学习(Contrastive Learning)在CV与NLP领域中的研究进展
目前NLP领域的经验,自监督预训练使用的数据量越大,模型越复杂,那么模型能够吸收的知识越多,对下游任务效果来说越好。这可能是自从Bert出现以来,一再被反复证明。
对白
2022/04/01
8690
对比学习(Contrastive Learning)在CV与NLP领域中的研究进展
广告行业中那些趣事系列40:广告场景文本分类任务样本优化实践汇总
摘要:本篇介绍了我们实际项目文本分类任务样本优化实践汇总。首先样本层面优化文本分类任务需要解决如何又快又好的获取人工标注数据集、如何解决样本不均衡问题和如何获取更多的训练样本三个问题;然后通过主动学习可以又快又好的获取人工标注数据集以及通过损失函数解决样本不均衡问题;最后重点介绍了我们的半监督和自训练流程项目,主要包括半监督项目的目标以及基本流程。对于希望提升文本分类任务线上效果的小伙伴可能有所帮助。
数据拾光者
2022/05/05
3740
广告行业中那些趣事系列40:广告场景文本分类任务样本优化实践汇总
广告行业中那些趣事系列41:广告场景中NLP技术的业务应用及线上方案
摘要:本篇主要介绍了广告场景中NLP技术的业务应用和线上方案,主要介绍了三大类任务:第一类任务是文本分类任务,业务主要包括自然兴趣建模体系、搜索场景行业词包和在线分类以及商店/搜索/评论等舆情分析,同时介绍我们的线上方案以及在模型和样本上的优化实践;第二类任务是文本生成任务,介绍了头条巨量创意平台的妙笔以及我们自研的文案助手技术方案;第三类任务是相似文本召回任务,业务主要是广告算法词召回,线上主要使用基于对比学习simcse+faiss的相似文本召回方案。感兴趣的小伙伴可以多交流。
数据拾光者
2022/05/05
8510
广告行业中那些趣事系列41:广告场景中NLP技术的业务应用及线上方案
深度学习应用篇-自然语言处理[10]:N-Gram、SimCSE介绍,更多技术:数据增强、智能标注、多分类算法、文本信息抽取、多模态信息抽取、模型压缩算法等
N-Gram是一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列。每一个字节片段称为gram,对所有gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就是这个文本的向量特征空间,列表中的每一种gram就是一个特征向量维度。
汀丶人工智能
2023/06/12
2.9K0
深度学习应用篇-自然语言处理[10]:N-Gram、SimCSE介绍,更多技术:数据增强、智能标注、多分类算法、文本信息抽取、多模态信息抽取、模型压缩算法等
基于对比学习(Contrastive Learning)的文本表示模型为什么能学到语义相似度?
最近在知乎上看到这样一个问题:基于对比学习(Contrastive Learning)的文本表示模型为什么能学到语义相似度?
对白
2022/04/01
1.6K0
基于对比学习(Contrastive Learning)的文本表示模型为什么能学到语义相似度?
文本匹配——【EMNLP 2021】SimCSE
SimCSE(Simple Contrastive Learning of Sentence Embeddings)是一种简单在没有监督训练数据的情况下训练句子向量的对比学习方法。
小爷毛毛_卓寿杰
2022/09/30
1K0
文本匹配——【EMNLP 2021】SimCSE
NLP 语义匹配:经典前沿方案整理
这篇跟大家讨论相关的技术,主要包括BERT-avg、BERT-Whitening、SBERT、SimCES四个。
NewBeeNLP
2021/11/12
1.4K0
NLP 语义匹配:经典前沿方案整理
广告行业中那些趣事系列30:实际业务超好用的SimBERT
摘要:本篇从理论到实际讲解了实际项目中使用很多的SimBERT模型。首先介绍了业务使用背景,主要用SimBERT的相似文本生成和相似文本检索能力;然后详细介绍了SimBERT的原理,SimBERT是基于UniLM来完成文本生成任务,重点介绍了SimBERT的损失函数和训练流程;最后源码实践了SimBERT,通过广告文案生成模型实践了相似文本生成任务,并基于SimBERT+Faiss实践了相似文本检索任务。对于希望将SimBERT应用于实际项目中的小伙伴可能有所帮助。
数据拾光者
2022/05/05
7360
广告行业中那些趣事系列30:实际业务超好用的SimBERT
文献阅读:SimCSE:Simple Contrastive Learning of Sentence Embeddings
主要思路感觉还是接着之前的SentenceBert一脉相承的(这部分内容我之前也写过一个小博客《文献阅读:Sentence-BERT:Sentence Embeddings using Siamese BERT-Networks》进行过介绍),主体还是使用的Bert或者Roberta模型,但是不同于sentence bert的截断迁移,这里采用的方式是通过引入对比学习来直接对sentence embedding进行学习,从而达到一个更好的效果。
codename_cys
2022/04/13
5860
文献阅读:SimCSE:Simple Contrastive Learning of Sentence Embeddings
对比学习在语义表征中的应用:SBERT/SimCSE/ConSERT/ESimCSE复现
本篇博文主要比较目前常用的Sentence Embedding方法,包括双塔模型SBERT,对比学习SimCSE、ConSERT、ESimCSE,这里谈谈论文里的细节,以及本人在中文语料(Chinese-SNLI、Chinese-STS-B)复现后的结果。
对白
2022/04/01
2.2K0
对比学习在语义表征中的应用:SBERT/SimCSE/ConSERT/ESimCSE复现
广告行业中那些趣事系列55:文本和图像领域大一统的UNIMO模型详解
摘要:本篇主要介绍了百度在多模态学习领域的成果UNIMO模型。首先是背景介绍,针对当前主流多模态学习模型存在训练语料少和模态缺失导致模型效果下降的问题,百度提出了UNIMO统一学习模型;然后重点介绍了UNIMO模型,主要包括UNIMO如何解决训练数据稀少和模态缺失问题、UNIMO模型输入、跨模态对比学习的UNIMO、UNIMO中视觉学习和文本学习以及UNIMO模型效果;最后介绍了UNIMO开源项目工程。对多模态学习感兴趣并且希望应用到项目实践的小伙伴可能有所帮助。
数据拾光者
2022/12/20
6890
广告行业中那些趣事系列55:文本和图像领域大一统的UNIMO模型详解
广告行业中那些趣事系列13:NLP中超实用的样本增强技术
摘要:本文主要解决在样本数量较少、样本不均衡或者需要提高模型的鲁棒性的场景下通过样本增强技术提升模型的泛化能力的问题。主要讲了近几年常用的样本增强技术,其中包括回译技术、词汇替换技术、随机噪声引入技术和生成式的方法等等。通过这些技术我们可以轻松的实现增加训练样本的目的。希望对样本增强技术感兴趣的小伙伴有所帮助。
数据拾光者
2022/05/05
4300
广告行业中那些趣事系列13:NLP中超实用的样本增强技术
广告行业中那些趣事系列24:从理论到实践解决文本分类中的样本不均衡问题
摘要:本篇主要从理论到实践解决文本分类中的样本不均衡问题。首先讲了下什么是样本不均衡现象以及可能带来的问题;然后重点从数据层面和模型层面讲解样本不均衡问题的解决策略。数据层面主要通过欠采样和过采样的方式来人为调节正负样本比例,模型层面主要是通过加权Loss,包括基于类别Loss、Focal Loss和GHM Loss三种加权Loss函数;最后讲了下其他解决样本不均衡的策略,可以通过调节阈值修改正负样本比例和利用半监督或自监督学习解决样本不均衡问题。需要说明下上面解决样本不均衡问题的策略不仅仅适用于文本分类任务,还可以扩展到其他的机器学习任务中。对于希望解决样本不均衡问题的小伙伴可能有所帮助。
数据拾光者
2022/05/05
4310
广告行业中那些趣事系列24:从理论到实践解决文本分类中的样本不均衡问题
广告行业中那些趣事系列15:超实用的基于BERT美团搜索实践
摘要:本篇主要学习和分析BERT在美团搜索排序中的项目实践。首先介绍了业务背景,主要对比了美团搜索业务场景和我们的应用场景;然后讲了下计算query和doc相关性的方法,主要包括计算字面相关性和计算语义相关性,重点介绍了基于BERT的语义相关性内容;最后也是本篇的重点,分析了美团搜索排序项目实践以及对我们业务的思考,其中包括数据样本增强、BERT领域适配、模型轻量化、联合训练和排序服务架构优化等一系列眼花缭乱但是又极具工程价值的优化操作,对于我们有极大的工程借鉴价值。
数据拾光者
2022/05/05
5470
广告行业中那些趣事系列15:超实用的基于BERT美团搜索实践
广告行业中那些趣事系列37:广告场景中的超详细的文本分类项目实践汇总
摘要:本篇主要分享了我在绿厂广告场景中历时两年的文本分类项目模型优化实践。第一部分内容是背景介绍,包括业务介绍、项目背景及目标、技术选型、分类器组织方案以及技术选型,了解了项目背景的来龙去脉才能更好的完成项目;第二部分内容是文本分类项目模型优化实践,主要包括基于BERT文本分类模型架构、Encoder优化、句向量表示优化、分类层优化、损失函数优化以及文本分类任务转化成句子对关系任务等。通过上述优化实践,可以让我们对文本分类任务有更加深入的了解。文本分类项目应该是我完成度最高的项目之一,从0到1将NLP前沿模型应用到业务实践产生广告消耗,本身收获很大。欢迎感兴趣的小伙伴一起沟通交流,后面会继续分享从样本层面优化文本分类任务实践。
数据拾光者
2022/05/05
4470
广告行业中那些趣事系列37:广告场景中的超详细的文本分类项目实践汇总
COLING'22 | ESimCSE:无监督句子表示对比学习的增强样本构建方法
每天给你送来NLP技术干货! ---- ©作者 | 高超尘 单位 | 中国科学院信息工程研究所 来源 | 开放知识图谱 来自 | PaperWeekly 论文标题: ESimCSE: Enhanced Sample Building Method for Contrastive Learning of Unsupervised Sentence Embedding 论文链接: https://arxiv.org/pdf/2109.04380.pdf 代码链接: https://github.com/ca
zenRRan
2022/09/27
1.1K0
COLING'22 | ESimCSE:无监督句子表示对比学习的增强样本构建方法
ACL 2022 | 引入角度margin构建对比学习目标,增强文本语义判别能力
A Contrastive Framework for Learning Sentence Representations from Pairwise and Triple-wise Perspective in Angular Space
NewBeeNLP
2022/11/11
6230
ACL 2022 | 引入角度margin构建对比学习目标,增强文本语义判别能力
推荐阅读
广告行业中那些趣事系列47:NLP中对比学习SOTA必学模型ESimCSE
4510
广告行业中那些趣事系列34:风头正劲的对比学习和项目实践
3260
广告行业中那些趣事系列49:oCTS:一个标注人员都可以优化分类器的训练系统
4710
对比学习(Contrastive Learning)在CV与NLP领域中的研究进展
8690
广告行业中那些趣事系列40:广告场景文本分类任务样本优化实践汇总
3740
广告行业中那些趣事系列41:广告场景中NLP技术的业务应用及线上方案
8510
深度学习应用篇-自然语言处理[10]:N-Gram、SimCSE介绍,更多技术:数据增强、智能标注、多分类算法、文本信息抽取、多模态信息抽取、模型压缩算法等
2.9K0
基于对比学习(Contrastive Learning)的文本表示模型为什么能学到语义相似度?
1.6K0
文本匹配——【EMNLP 2021】SimCSE
1K0
NLP 语义匹配:经典前沿方案整理
1.4K0
广告行业中那些趣事系列30:实际业务超好用的SimBERT
7360
文献阅读:SimCSE:Simple Contrastive Learning of Sentence Embeddings
5860
对比学习在语义表征中的应用:SBERT/SimCSE/ConSERT/ESimCSE复现
2.2K0
广告行业中那些趣事系列55:文本和图像领域大一统的UNIMO模型详解
6890
广告行业中那些趣事系列13:NLP中超实用的样本增强技术
4300
广告行业中那些趣事系列24:从理论到实践解决文本分类中的样本不均衡问题
4310
广告行业中那些趣事系列15:超实用的基于BERT美团搜索实践
5470
广告行业中那些趣事系列37:广告场景中的超详细的文本分类项目实践汇总
4470
COLING'22 | ESimCSE:无监督句子表示对比学习的增强样本构建方法
1.1K0
ACL 2022 | 引入角度margin构建对比学习目标,增强文本语义判别能力
6230
相关推荐
广告行业中那些趣事系列47:NLP中对比学习SOTA必学模型ESimCSE
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档