首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Quora问题对挑战,预测两个问题是否提出相同的问题,使用二进制交叉熵损失来评估预测

Quora问题对挑战是一个任务,旨在预测两个问题是否提出相同的问题。这个任务可以通过使用二进制交叉熵损失来评估预测的准确性。

在这个任务中,我们可以将问题表示为文本序列,并使用自然语言处理技术来处理和理解这些文本。以下是一个完善且全面的答案:

  1. 问题对挑战(Question Pair Challenge):这是一个自然语言处理任务,旨在预测两个问题是否提出相同的问题。对于给定的两个问题,模型需要判断它们是否具有相似的语义含义。
  2. 二进制交叉熵损失(Binary Cross-Entropy Loss):这是一种常用的损失函数,用于衡量二分类问题中预测结果与真实标签之间的差异。在问题对挑战中,我们可以将问题的相似性预测问题转化为一个二分类问题,其中标签为0表示不相似,标签为1表示相似。通过最小化二进制交叉熵损失,我们可以训练模型来预测问题对的相似性。
  3. 自然语言处理(Natural Language Processing,NLP):这是一门研究如何使计算机能够理解和处理人类语言的学科。在问题对挑战中,NLP技术可以用于对问题进行文本表示、语义理解和相似性计算等任务。
  4. 文本序列表示(Text Sequence Representation):在问题对挑战中,我们需要将问题转化为计算机可以理解的形式。常用的方法包括词袋模型、词嵌入(Word Embedding)和Transformer等。这些方法可以将文本序列映射为向量表示,以便进行后续的相似性计算。
  5. 语义含义相似性(Semantic Similarity):问题对挑战的目标是判断两个问题的语义含义是否相似。通过计算问题之间的语义相似度,我们可以评估它们的相似性程度。常用的方法包括基于词向量的相似度计算、基于句子向量的相似度计算和基于神经网络的相似度计算等。
  6. 推荐的腾讯云相关产品和产品介绍链接地址:腾讯云提供了一系列与云计算和人工智能相关的产品和服务,以下是一些推荐的产品和对应的介绍链接地址:
  • 自然语言处理(NLP):腾讯云自然语言处理(NLP)提供了一系列基于深度学习的自然语言处理技术,包括文本分类、情感分析、命名实体识别等。详细介绍请参考:腾讯云自然语言处理(NLP)
  • 人工智能机器学习平台:腾讯云人工智能机器学习平台提供了一站式的机器学习解决方案,包括数据预处理、模型训练和模型部署等。详细介绍请参考:腾讯云人工智能机器学习平台
  • 弹性计算(Elastic Compute):腾讯云弹性计算提供了灵活可扩展的计算资源,包括云服务器、容器服务和函数计算等。详细介绍请参考:腾讯云弹性计算(Elastic Compute)
  • 云数据库(Cloud Database):腾讯云云数据库提供了可靠、可扩展的数据库服务,包括关系型数据库、NoSQL数据库和数据仓库等。详细介绍请参考:腾讯云云数据库(Cloud Database)

请注意,以上推荐的产品和链接地址仅为示例,实际选择产品时应根据具体需求进行评估和选择。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

可视化理解 Binary Cross-Entropy

你是否想过使用此损失函数到底意味着什么?问题是,鉴于如今库和框架的易用性,很容易让人忽略所使用损失函数的真正含义。...如果我们拟合模型来执行此分类,它将预测每个点是绿色的概率。假定我们了解点的颜色,我们如何评估预测概率的好坏?这就是损失函数的全部目的!对于错误的预测,它应该返回高值,对于良好的预测,它应该返回低值。...条形图表示与每个点的对应真实类别相关的预测概率! 好的,我们有了预测的概率…是时候通过计算二值交叉熵/对数损失来评估它们了! 这些概率就是我们要的,因此,让我们去掉x轴,将各个方条彼此相邻: ?...它寻找可能的最佳p(y),以最小化交叉熵的值。 损失函数 在训练过程中,分类器使用其训练集中的N个点中的每一个来计算交叉熵损失,从而有效地拟合分布p(y)!...▲ 二进制交叉熵 —— 在正负类上计算 最后,我们通过一点小处理,正类或负类中任何一点都可以用相同的公式: ? ▲ 二进制交叉熵 —— 通用公式 瞧!

2.4K62

目标检测中焦点损失的原理

目录 为什么需要焦点损失 什么是焦点损失 交叉熵损失 交叉熵问题 例子 平衡交叉熵损失 平衡交叉熵问题 例子 焦点损失说明 例子 交叉熵损失 vs 焦点损失 容易正确分类的记录 分类错误的记录 非常容易分类的记录...因此,焦点损失减少了简单示例的损失贡献,并加强了对纠正错误分类示例的重视。 首先让我们来了解一下二进制分类的交叉熵损失。 交叉熵损失 交叉熵损失背后的思想是惩罚错误的预测,而不是奖励正确的预测。...二进制分类的交叉熵损失如下: ? 其中: Yact = Y的实际值 Ypred = Y的预测值 为了标记方便,我们记 Yact = Y 且 Ypred = p 。...为此,研究人员提出:(1- pt)γ 为交叉熵损失,且可调聚焦参数γ≥0。 RetinaNet物体检测方法使用焦点损失的α平衡变体,其中α = 0.25,γ= 2效果最佳。...现在,让我们使用一些示例来比较交叉熵和焦点损失,并查看焦点损失在训练过程中的影响。 交叉熵损失 vs 焦点损失 让我们通过考虑以下几种情况来进行比较。

1.2K30
  • 训练深度学习神经网络的常用5个损失函数

    神经网络在训练时的优化首先是对模型的当前状态进行误差估计,然后为了减少下一次评估的误差,需要使用一个能够表示错误函数对权重进行更新,这个函数被称为损失函数。...在本文中我们将介绍常用的一些损失函数,包括: 回归模型的均方误差损失 二元分类模型的交叉熵和hinge 损失 回归模型的损失函数 回归预测模型主要是用来预测连续的数值。...MAE在这种情况下也不是很适合,因为目标变量是一个没有大离群值的高斯函数。 二元分类的损失函数 二元分类问题是预测建模问题中两个标签中的一个。...我们也是使用sklearn生成数据这里使用圆问题,它有一个二维平面,有两个同心圆,其中外圆上的点属于类0,内圆上的点属于类1。为了使学习更具挑战性,我们还在样本中加入了统计噪声。...Hinge 支持向量机 (SVM) 模型使用Hinge 损失函数作为交叉熵的替代来解决二元分类问题。 目标值在是集合 [-1, 1] ,旨在与二进制分类一起使用。

    93310

    不要相信模型输出的概率打分......

    造成这个现象的最本质原因,是模型对分类问题通常使用的交叉熵损失过拟合。并且模型越复杂,拟合能力越强,越容易过拟合交叉熵损失,带来校准效果变差。...这也解释了为什么随着深度学习模型的发展,校准问题越来越凸显出来。 那么为什么过拟合交叉熵损失,就会导致校准问题呢?...在Calibrating deep neural networks using focal loss(NIPS 2020)中,作者提出直接使用focal loss替代交叉熵损失,就可以起到校准作用。...KL散度和一般的交叉熵作用相同,而第二项在约束模型输出的预测概率值熵尽可能大,其实和temperature scaling的原理类似,都是缓解模型在某个类别上打分太高而带来的过自信问题: 除了修改损失函数实现校准的方法外...Mixup方法的扩展,随机选择两个图像和label后,对每个patch随机选择是否使用另一个图像相应的patch进行替换,也起到了和Mixup类似的效果。

    1.3K21

    不同驾驶视角的人类洞察驱动潜能空间:高效多任务推理的统一编码 !

    一种策略来稳定训练,通过从多encoder教师(在相同任务上进行预训练的多个编码器)中提取知识来进行解码。 评估共享编码器在多个任务上训练是否能改善转向角估计。...训练分为两个阶段进行。在第一阶段,作者使用除方向命令解码器外的五个解码器预训练编码器,以学习跨任务的一般化特征。在第二阶段,作者将编码器冻结并添加一个方向估计预测头来评估其在导航中的性能。...监督损失函数将交叉熵损失用于分类,二进制交叉熵用于预测 Mask ,以及Dice损失用于精确预测 Mask 边界。作者在panoptic标注上端到端训练这个模型,从中提取出语义和实例标签。...总体损失函数 结合多个组件以确保任务特定精度: 其中: 是针对 Mask (即局部区域)分类精度的交叉熵损失。 是二进制交叉熵损失,应用于 Mask 。...是用来惩罚相对动量的二进制运动 Mask 的低差异,使用交叉熵鼓励零运动 Mask 。 是使用RANSAC惩罚地面平面以下的点投影。 图1(e)显示了计算上文自监督损失的数据流。

    12310

    Tensorflow入门教程(四十七)——语义分割损失函数总结

    2、14种损失函数 2.1、二值交叉熵损失函数 交叉熵的定义是两个概率分布差异的测量指标。二值交叉熵定义如下: ?...2.8、SSL(敏感特异性损失)函数 与dice相似,敏感特异性用来评价分割预测结果。通过参数W来解决类别不平衡问题。 ? ?...Lmbce是改进的二值交叉熵损失,DL是dice损失。 2.11、指数对数损失函数 指数对数损失函数专注于使用Dice损失和交叉熵损失的组合公式来预测不太准确的结构。...在计算相关度之后,使用了它作为交叉熵损失函数的系数。 ? 使用下面公式, ? 损失函数将放弃那些具有一定价值的预测。简单来说,损失函数会自动放弃这些像素级别的预测,这些像素在结构上并没有显著的相关性。...但是,高度不平衡的分割针对损失函数的改进会更有效,类似地,二进制交叉熵对平衡的数据集最有效,而轻度偏斜的数据集可以在平滑或广义dice系数会工作更好。

    2.1K20

    机器学习模型性能的10个指标

    交叉熵损失 交叉熵损失是一种在分类问题中常用的性能度量指标,尤其适用于模型的输出为概率值的情况。该损失函数用于量化模型预测的概率分布与实际标签分布之间的差异。...在分类问题中,模型的目标通常是预测样本属于不同类别的概率。交叉熵损失正是用于评估模型预测概率与实际二进制结果之间的一致性。它通过对预测概率进行对数运算,并与实际标签进行比较,得出损失值。...因此,交叉熵损失也被称为对数损失。 交叉熵损失的优势在于它能够很好地衡量模型对于概率分布的预测准确性。...因此,较低的交叉熵损失值意味着模型的预测更加准确,即模型具有更好的校准性能。 在实际应用中,我们通常追求更低的交叉熵损失值,因为这代表着模型对于分类问题的预测更加准确和可靠。...因此,交叉熵损失是评估分类模型性能的重要指标之一,它能够帮助我们进一步了解模型的预测准确性以及是否需要进一步优化模型的参数和结构。 10.

    3.8K20

    机器学习----交叉熵(Cross Entropy)如何做损失函数

    但是对于分类问题,损失函数可能是坑坑洼洼的,很难找到最优解。故均方差损失函数适用于回归问题。 3.交叉熵损失函数 交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性。...KL散度=交叉熵-信息熵 相对熵在机器学习、信息论和统计学中有广泛的应用。它可以用于评估两个模型或概率分布的相似性,比较数据分布的差异,以及在熵最小化的框架下进行优化等。...2.多分类问题中的交叉熵 假设希望根据图片动物的轮廓、颜色等特征,来预测动物的类别,有三种可预测类别:猫、狗、猪。...或者写作 四.交叉熵函数的代码实现 在Python中,可以使用NumPy库或深度学习框架(如TensorFlow、PyTorch)来计算交叉熵损失函数。...2.缺点 Deng在2019年提出了ArcFace Loss,并在论文里说了Softmax Loss的两个缺点: 1、随着分类数目的增大,分类层的线性变化矩阵参数也随着增大; 2、对于封闭集分类问题,

    9.1K20

    CVPR2020 | 显著性目标检测,多尺度信息相互融合

    在本文中,提出了聚合交互模块来聚合相邻层的特征,由于整个工程中仅使用较小的上/下采样率即可因此引入的噪声较少。...此外,由尺度变化引起的类不平衡问题削弱了二元交叉熵损失的影响,并导致预测的空间不一致。因此,本文利用一致性增强的损失来突出显示前后差异,并保留类内一致性。...另外,考虑到卷积运算固有的局部性和交叉熵函数的像素级特征,很难实现物体的均匀显著性提取。 ? 对于第一个问题,现有方法的主要解决方法是逐层整合较浅的特征。...3 Consistency-Enhanced Loss 在SOD任务中,广泛使用的二进制交叉熵函数在整个批次中累积了每个像素的损失,并且没有考虑像素间的关系,这无法明确地促使模型尽可能平滑地突出前景区域并很好地处理样本不平衡问题...为此,提出了一致性增强损失(CEL)。首先,最终预测的计算如下: ?

    3.6K40

    腾讯 | ADSNet:基于自适应孪生网络的广告跨域LTV预测

    具体地,ADSNet的设计初衷是学习外部样本中对目标域有益的信息,方法上引入了增益评估策略来计算信息增益,帮助模型学习对目标域有益的信息同时提供拒绝噪声样本的能力,从而避免域变化引起的负迁移问题,此外还设计了域自适应模块作为桥梁来连接不同的域...为此本文衍生出一个多粒度预测模块,改模块包含两个部分:粗粒度的购买概率预测和细粒度的购买金额预测 购买概率预测:定义二分类模型,由MLP加上sigmoid激活函数构建分类器,损失函数使用交叉熵损失: 其中...每个二元分类器使用sigmoid函数激活,表示第k个二元分类器的购买概率,在推理阶段,预测的LTV计算为: 其中表示购买概率,表示第k段的平均ltv值,表示第k段的购买概率 在此阶段,采用二元交叉熵损失对购买金额进行序数分类...,定义为: 于是,总的loss定义为: 2.2 差异伪孪生网络 孪生网络是一种典型的深度学习结构,它包含两个具有相同结构的分支,并使用相似或不相似的对来学习相似性。...,从而计算输入数据对网络性能的贡献: 其中Score是增益度量函数,在本文中,使用这种方法检查两个网络在内部样本上计算的损失差异,来量化外部数据对增益网络提供的增益,表示为: 如果增益大于0,意味着对内部域有正增益

    68611

    CVPR2024 预测世界模型挑战赛亚军方案,实现高效点云预测 !

    这一挑战主要面临两个主要困难:第一个是如何在大量数据上有效地训练。考虑到 OpenScene 数据集[2]包含600万个帧,设计的模型必须高效。第二个挑战是如何通过视觉输入预测出忠实于原始的点云。...最后,使用线性投影将特征映射到维,其中是类别数。 为了缓解占位预测中的类不平衡问题,作者使用了类加权交叉熵和Lovasz损失。作者的多任务训练损失是由占位预测损失和深度损失组成的。...渲染与损失 作者使用与ViDAR [13]相同的渲染过程和损失来优化点云预测,这是一个光线交叉熵损失,以最大化其对应光线上的点响应。对于姿态回归,作者在训练中使用L1损失。...为了评估模型性能,本挑战采用Chamfer距离(CD)[5]进行模型评估。...Chamfer距离通过计算一对预测点云和 GT 点云之间的平均最近邻距离,来量化预测点云与 GT 点云之间的相似性,这个距离在两个方向上都被计算。

    12110

    AAAI 2020 | 计算所&微信AI:改进训练目标,提升非自回归模型翻译质量(已开源)

    一方面,词级别的交叉熵损失对每个位置的预测结果进行独立评估,难以建模序列依赖关系; 另一方面,交叉熵损失要求模型的预测结果与参考译文严格对齐,否则就难以评估模型的翻译质量。...如图二所示, 图二:不对齐时,交叉熵损失无法给出准确的指导 当预测结果未与参考译文对齐时,尽管两者语义很相近,交叉熵损失还是会变得非常大,对模型给出错误的指导。...相关工作 针对上述的交叉熵损失函数不准确的问题,Gu等人[1]将其归因为译文的“多峰性”,即一个句子可能有多种正确的译文,并提出引入隐变量来减小译文的不确定性。...然而,[8]仅针对在译文中观察到的问题做优化,并未从根本上解决问题。由于序列级指标的离散性,[9]无法准确求得损失函数的梯度,需要使用强化学习算法来做梯度估计。...结 论 本文针对非自回归模型中交叉熵损失不准确的问题,提出了基于n元组袋的BoN损失。实验显示,BoN损失与翻译质量的相关性更强,用其对非自回归模型进行训练,能显著提升模型的翻译效果。

    82810

    计算机视觉的半监督模型:Noisy student, π-Model和Temporal Ensembling

    我们想使用这些数据来构建一个模型,进行图像分类的任务,解决这个问题的标准方法是构建卷积神经网络 (CNN)。CNN 已被证明在使用大型数据集进行训练时可以提供最先进的结果。...将这两个增强图像输入到我们的卷积神经网络中,该网络产生两个输出向量。 π-model 的核心思想是,为了规范模型并使其对噪声有弹性,我们应该惩罚它对同一图像的增强给出不同的预测。...因此,除了通常用于此类图像分类任务的标准交叉熵损失(只为标记数据计算)外,我们还根据两个输出向量之间的平方差在损失中添加了一个被称为样本的“一致性损失”的损失项。...数据点的最终损失是交叉熵损失(如果数据点被标记)和一致性损失的加权和。权重 w(t) 决定了一致性损失相对于交叉熵损失的权重。...以相同的方式考虑交叉熵损失,并且 w(t) 再次遵循高斯曲线。但是Temporal Ensembling的训练速度更快(因为我们只需要对每个输入评估一次模型而不是两次),并且训练目标的噪声较小。

    79120

    【NLP论文速递】条件语言生成 && 多模态图文生成

    当前一般的研究方法是将每个任务设计成两个独立的特定任务模型,但是这么做会带来比较高的工作成本。针对这个问题中,文章提出了一个基于单一多模态模型的统一的图文生成框架来共同研究双向任务,如下图所示。...这里将这两个任务都制定为序列生成任务,其中图像和文本表示为标记序列,并且该模型通过交叉熵损失训练学习预测以其它真实标记为条件的目标标记。...虽然它们已经显示出一些初步的前景,但这些方法仍然面临双向生成的两个主要挑战:特征离散化过程引起的信息损失,以及交叉熵损失训练引起的误差积累。...首先,我们引入了两级粒度特征表示,其中我们使用密集特征来减少图像到文本生成的信息损失,并使用离散特征来启用文本到图像生成。...其次,我们提出了一种训练策略,该策略基于序列级预测而不是令牌级预测来优化我们的模型,以弥合训练和测试之间的差距。

    859100

    使用NTS理解细粒度图像分类

    对于图像中的每个区域,Navigator通过对损失排序来预测该区域的信息量(如下所述),并利用这些预测来提出信息最丰富的区域。现在的问题是:如何在图像中得到有用的可变长度的“区域”?...Teacher agent 对Navigator提出的信息量最大的区域进行评估,并提供反馈:对于每个提出的区域,Teacher评估其概率为ground-truth class。...置信度评估指导navigator网络使用排序一致性损失函数(在代码实现中称为“ranking loss”),提出信息更丰富的区域。...Scrutinizer agent 从Navigator中对提出的区域进行审查并进行细粒度分类:将每个提出的区域扩大到相同大小,agent从中提取特征,将区域特征与整幅图像的特征联合处理,进行细粒度分类...RAW LOSS:这是针对RESNET网络参数的图像分类的分类交叉熵损失。我们对原始图像的特征进行raw loss,然后将其与我们的建议区域图像的特征结合进行细粒度分类。这里的输出是图像的标签。

    3.7K20

    损失函数,基于概率分布度量的损失函数,信息量,信息熵的作用

    交叉熵损失函数刻画了实际输出概率与期望输出概率之间的相似度,也就是交叉熵的值越小,两个概率分布就越接近,特别是在正负样本不均衡的分类问题中,常用交叉熵作为损失函数。...在信息论中,交叉熵是表示两个概率分布p,q的差异,其中p表示真实分布,表示预测分布,那么H(p,q)就称为交叉熵。...熵 相对熵(KL散度) 交叉熵 交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。...交叉熵的值越小,模型预测效果就越好。 交叉熵经常搭配softmax使用,将输出的结果进行处理,使其多个分类的预测值和为1,再通过交叉熵来计算损失。...二分类问题交叉熵 二分类交叉熵损失函数图 多分类问题交叉熵 为什么不能使用均方差做为分类问题的损失函数? 回归问题通常用均方差损失函数,可以保证损失函数是个凸函数,即可以得到最优解。

    9710

    语义分割中的 loss function 最全面汇总

    特别注意的是,binary entropy loss 是针对类别只有两个的情况,简称 bce loss,损失函数公式为: 2、weighted loss 由于交叉熵损失会分别评估每个像素的类别预测,然后对所有像素的损失进行平均...计算 Dice 系数的分子中有一个2,那是因为分母中对两个集合的元素个数求和,两个集合的共同元素被加了两次。为了设计一个可以最小化的损失函数,可以简单地使用 。...这种损失函数被称为 soft Dice loss,这是因为我们直接使用预测出的概率,而不是使用阈值将其转换成一个二进制掩码。...Dice loss是针对前景比例太小的问题提出的,dice系数源于二分类,本质上是衡量两个样本的重叠部分。...总结: 交叉熵损失把每个像素都当作一个独立样本进行预测,而 dice loss 和 iou loss 则以一种更“整体”的方式来看待最终的预测输出。

    25910

    分割之后再识别对象之间关系,新模型RAM为SAM赋予新技能

    其中,匈牙利匹配器用于将预测的三元组与 ground truth 三元组进行比较,然后优化目标最大化匹配器计算的成本,并使用交叉熵进行分类损失,使用 DICE/F-1 计算分割的损失。...例如,他们注意到 PSG 数据集通常包含两个具有多个关系的对象,例如 “人看着大象” 和 “人喂大象” 同时存在。为了解决这个问题,他们的解决方案是将关系预测从单标签分类问题转换为多标签分类问题。...为了解决这个问题,获胜团队提出了一种自我训练策略,使用自我蒸馏标签进行关系分类,并使用指数移动平均(EMA)来动态更新标签。...对于每个关系类别,执行关系二元分类任务以确定对象对之间是否存在关系。 获胜团队解决了许多挑战,例如双阶段范式利用全局信息的方法、关系精度和概括性之间的冲突,以及轻量级双阶段范式的计算效率。...然后,该研究根据 SAM 的 mask 重新生成关系图,最后使用交叉熵损失来训练 RAM 模型。

    36520

    从0到1:神经网络实现图像识别(中)

    之间的损失,可以用两个概率分布的 交叉熵(cross entropy)来度量: ? 所以,某一样本点使用模型预测的损失函数,可以写为 ?...你可以跳过关于交叉熵的展开介绍,从学习算法处继续阅读,不影响方法使用。 再深一点:关于交叉熵 ? 1948年,Claude E Shannon首次提出信息熵(Entropy)概念。...交叉熵对两个概率分布的度量结果,不具对称性,所以交叉熵并不是严格意义上的距离。...交叉熵概念的源头,用比特(bits)信息为单位,以2为底做对数计算,那么用作损失函数Loss时,对数计算是否必须以2为底呢? 不是必须的。...机器学习领域,交叉熵被用来衡量两个概率分布的相似度,交叉熵越小,两个概率分布越相似。工程实践中,出于简化公式推导,或优化数值计算效率的考虑,对数的底可以做出其它选择。

    94640

    (无论什么问题都能套上,确定不来看看?)

    在明确输入输出及所使用的数据中有两个假设:假设输出是可以根据输入进行预测的。假设可用数据包含足够多的信息,足以学习输入和输出之间的关系。...我们在面对问题也要考虑到输入数据 X 是否有足够的信息来预测 Y, 比如在股票价格预测,如果只有历史价格显然是无法实现的,因为历史价格并没有包含可以很好预测的信息。...例如,广泛使用的分类指标 ROC AUC 就不能被直接优化。因此在分类任务中,常见的做法是优化 ROC AUC 的替代指标,即 sensitity,specific,而这两个可以通过交叉熵来解决。...,例如交叉熵损失、Dice损失等 生成对抗网络问题(Generative Adversarial Networks) 无激活函数(线性输出)对抗性损失函数,例如生成器使用二元交叉熵,判别器使用...在实际应用中,具体的选择可能会因问题的特点、数据分布和算法选择等因素而有所不同。开发过拟合模型一旦得到了具有统计功效的模型,问题就变成了:模型是否足够强大?它是否具有足够多的层和参数来对问题进行建模?

    20920
    领券