首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何根据句子长度在两个数据帧之间建立连接,并根据ID将其掩蔽到另一个数据帧

根据句子长度在两个数据帧之间建立连接,并根据ID将其掩蔽到另一个数据帧的过程可以通过以下步骤实现:

  1. 首先,将原始句子转换为二进制数据。根据ASCII码表,将每个字符转换为对应的二进制表示。
  2. 确定两个数据帧的结构。一个数据帧用于存储句子长度信息,另一个数据帧用于存储句子内容。
  3. 在第一个数据帧中,使用固定长度的字段来存储句子长度信息。可以根据句子长度的范围来确定字段的长度,以确保能够覆盖所有可能的句子长度。
  4. 在第二个数据帧中,使用固定长度的字段来存储句子内容。同样,根据句子内容的长度范围来确定字段的长度。
  5. 将句子长度信息和句子内容分别填充到两个数据帧中的对应字段中。
  6. 使用ID字段来标识两个数据帧之间的连接。可以为每个连接分配唯一的ID,以便在接收端能够正确地将两个数据帧进行匹配。
  7. 将两个数据帧发送到目标设备或网络。
  8. 在接收端,根据ID字段将两个数据帧进行匹配。
  9. 从第一个数据帧中读取句子长度信息,并根据长度信息从第二个数据帧中读取相应长度的句子内容。
  10. 将句子内容转换回文本形式,即可获取原始句子。

这种方法可以用于将较长的句子分割成多个数据帧进行传输,并在接收端重新组合成完整的句子。通过使用ID字段进行匹配,可以确保正确地将句子长度和内容进行关联。

在腾讯云的产品中,可以使用云服务器(CVM)来进行数据帧的发送和接收。云服务器提供了稳定可靠的计算资源,可以满足数据传输的需求。此外,腾讯云还提供了云数据库(CDB)和对象存储(COS)等产品,用于存储和管理数据。具体产品介绍和链接地址可以参考腾讯云官方网站。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

(强烈推荐)移动端音视频从零到上手

ID为15-20的消息用于发送AMF编码的命令,负责用户与服务器之间的交互,比如播放,暂停等等 消息首部(Message Header)有四部分组成:标志消息类型的Message Type ID,标志消息长度的...[1240] 4.RTMP中的逻辑结构 RTMP协议规定,播放一个流媒体有两个前提步骤 第一步,建立一个网络连接(NetConnection) 第二步,建立一个网络流(NetStream)。...其中,网络连接代表服务器端应用程序和客户端之间基础的连通关系。网络流代表了发送多媒体数据的通道。服务器和客户端之间只能建立一个网络连接,但是基于该连接可以创建很多网络流。...建立连接阶段用于建立客户端与服务器之间的“网络连接”;建立流阶段用于建立客户端与服务器之间的“网络流”;播放阶段用于传输视音频数据。 [1240] [1240] [1240] [1240] 6....音视频同步播放 深入研究 iOS视频渲染 AudioQueue实现音频流实时播放实战 当我们拿到解码后的音视频时,首先要考虑的问题就是如何同步音视频,在网络正常的情况下是不需要做音视频同步操作,因为我们

1.1K00

多模态理解与生成,西南交大&MSRA提出统一的视频和语言预训练模型:UniVL!

video-text联合目标在这两个编码器上执行,其目的是融合它们之前为每种模态学习更好的表示。这种双流结构对于检索任务来说是很自然的,因为可以扩展非常大的数据集。...对于每个视频Clip,采样一个序列采用它们来提取特征,其中是视频的第j组,m是序列的组长度。 3.1.2 Single Modal Encoders 分别对文本和视频进行编码。...这种双流设计有两个优点:模块重用和面向检索。模块重用意味着文本模块可以受益于现有的基于文本的预训练模型,例如BERT。面向检索意味着双流设计对于检索任务来说是自然的,因为它可以扩展广泛的数据集。...一个原因是文本长度n和视频Clip长度m总是不同的。另一个原因是文本和视频之间的语义并不是绝对一致的。人们很可能会在视频中描述表演后或之前的活动。...这对齐了文本和视频之间的表示空间。考虑叙事视频中文本和视频片段之间的不一致,T和V上采用MIL-NCE作为目标, 其中,是一组正视频转录本对。例如,其中和是时间上与t最接近的两个转录本。

62310
  • 【综述】基于Transformer的视频语言预训练

    3)排序任务(Ordering tasks)是输入端对序列进行排序,迫使模型识别原始序列顺序。例如,顺序建模(FOM)专门用于利用视频序列的时间特性,而句子顺序建模(SOM)专门用于文本模态。...MLM用于视频语言预训练,不仅学习句子内在的关系,而且将视觉信息与句子结合起来。根据经验,掩蔽百分比始终设置为15%。MLM的损失函数可以定义为: 3.2....LR和mask language modeling之间的区别在于,LR从左到右生成句子,这意味着模型预测下一个文本标记时只关注前一个文本token和视频token,损失函数如下所示: 其中是单词序列的...每个压缩的嵌入通过FC层进行转换,然后对类进行softmax操作,其中是序列的最大长度。FOM可以概括为一个目标函数: 其中y是顺序的groundtruth,是顺序。...第三个跨模态Transformer将两个模态序列组合在一起,计算它们的相似度,通过NCE loss学习配对视频和句子的关系。

    1K10

    谷歌送上主播福利,手机拍视频实时换背景

    对背景的修改可以传递不同的情绪、可以让前景的主人公显得去了另一个地方,又或者增强这条视频消息的影响力。...作为视频模型,它应当利用视频的时间冗余性(相邻的内容相似),自己展现出时间持续性(相邻的输出结果相似) 作为基本规律,高质量的结果也需要高质量的标注训练数据 数据集 为了给机器学习流水线提供高质量的训练数据...这里需要解决的关键问题是让计算出的不同掩蔽之间达到时间持续性。现有的使用 LSTM 和 GRU 的方法虽然有效,但对于要在手机上实时运行的应用来说,需要的计算能力太高了。...训练过程 对于视频分割任务,我们希望达到之间的时间连续性,同时也要照顾到图像中内容的突然变化,比如人突然出现在摄像头视野中。...经过这些修改之后,网络移动设备上的运行速度非常块,不仅在 iPhone 7 上有超过 100 每秒、Pixel 2 上超过 40每秒的速度,而且还有很高的准确率(根据谷歌的验证数据集达到了 94.8%

    1.1K40

    视频压缩编码和音频压缩编码的基本原理

    数字化后的视频信号能进行压缩主要依据两个基本条件: l  数据冗余。例如如空间冗余、时间冗余、结构冗余、信息熵冗余等,即图像的各像素之间存在着很强的相关性。...假设一图像的大小为1280*720,首先将其以网格状的形式分成160*90个尺寸为8*8的彼此没有重叠的图像块,接下来才能对每个图像块进行DCT变换。...另一个应用是进行反量化和反变化后的信号X’,该信号将与运动补偿输出的图像块相加得到新的预测图像信号,并将新的预测图像块送至存储器。...数字音频压缩编码保证信号听觉方面不产生失真的前提下,对音频数据信号进行尽可能大的压缩。数字音频压缩编码采取去除声音信号中冗余成分的方法来实现。...每个声道中的音频采样块首先要根据心理声学模型来计算掩蔽门限值, 然后由计算出的掩蔽门限值决定从公共比特池中分配给该声道的不同频率域中多少比特数,接着进行量化以及编码工作,最后将控制参数及辅助数据加入数据之中

    1.6K20

    HTTP2请求走私(上)

    ,动态编码则是将首部字段添加到动态表中根据新的上下文来更新表的内容,动态编码通过使用索引号、字面量编码和哈夫曼编码来进行首部字段的编码 下面是一个示例,说明HPACK压缩算法如何对首部字段进行编码,原始的字段如下...协议中最小数据传输单元 新的二进制成机制的引入改变了客户端和服务器之间数据交换方式,为了描述这个过程,让我们熟悉一下HTTP/2术语: Stream(流):已建立连接中的双向字节流,可以携带一条或多条消息...,下面的示例中我们展示了一个HTTP/2的数据,它的长度字段为10,表示数据的有效载荷长度为10字节,类型字段为0,表示这是一个数据,标志位字段为0,无特殊标志,流标识符为1,表示该数据属于ID...中毒原理 请求走私攻击通常涉及走私部分请求,服务器将其作为前缀添加到连接中下一个请求的开始,需要注意的是被发送的请求的内容会影响最初攻击后的连接,如果您只是偷偷发送一个带有一些头的请求行,假设不久之后连接上发送了另一个请求...,前端将第一个响应正确地映射到初始的"包装器"请求并将其转发给客户端,因为没有其他请求等待响应,所以意外的第二个响应被保存在前端和后端之间连接队列中,当前端接收到另一个请求时,它会像往常一样将其转发给后端

    17110

    音视频知识小结

    空间冗余,视频的背景和整体颜色相近并且平稳变化,可以利用内编码进行压缩;(无损) 时间冗余,两个视频之间具有强相关性,利用运动估计和运动补偿进行间压缩;(无损) 结构冗余,图像内部存在相似性,通过这种关系可以进行分形编码...; 编码冗余,出现概率大的颜色编码长度短,概率小的颜色编码长度长;(可变长度编码) 视觉冗余,利用人眼对亮度和色度的敏感度不同,在编码时进行数据压缩;(有损压缩) 2、变换 空间域描述的图像相关性不太明显...图像空间中以长度(距离)为自变量直接对像元值进行处理称为空间域处理。...GOP(Group Of Picture)是图像组,是一组连续的画面;(直播实现秒开,关键就是CDN节点缓存GOP,编码器拿到第一个GOP后马上解码播放) 帧内压缩:当压缩一图像时,仅考虑本数据而不考虑相邻之间的冗余信息...所谓冗余成分指的是音频中不能被人耳感知的信号,它们对确定声音的音色,音调等信息没有任何的帮助。 冗余信号包含人耳听觉范围外的音频信号以及被掩蔽掉的音频信号等。

    1.5K71

    (强烈推荐)移动端音视频从零到上手(上)

    处理 音频和视频原始数据本质都是一大段数据,系统将其包装进自定义的结构体中,通常都以回调函数形式提供给我们,拿到音视频数据后,可以根据各自项目需求做一系列特殊处理,如: 视频的旋转,缩放,滤镜,美颜,裁剪等等功能...处理 深入研究 (待添加) 高效裁剪视频 根据声音大小实现音量柱功能 从上一步中,我们可以得到采集的音频原始数据和视频原始数据移动端,一般是通过各自手机平台官方API中拿到, 前文链接中皆有实现的方法...,将其送给开源库,处理完后再拿到处理好的音视频继续我们自己的流程.当然很多开源库仍需要根据项目需求略微更改封装. 3.编码 深入研究 iOS视频视频编码 iOS音频音频编码 3.1....压缩数据类型 正因为运动估计与运动补偿,所以编码器将输入的每一图像根据参考图像分成了三种类型:I,P,B。 I: 只使用本内的数据进行编码,在编码过程中不需要进行运动估计和运动补偿。...VP9 VP9 的开发从 2011 年第三季开始,目标是同画质下,比 VP8 编码减少 50%的文件大小,另一个目标则是要在编码效率上超越 HEVC 编码。 3.4.

    1K30

    NeurIPS 2022 | VideoMAE:掩蔽自编码器是自监督视频预训练的高效数据学习器

    这种时间冗余将增加模型没有学到高级特征的情况下从时空邻域中恢复丢失像素的风险。此外,视频之间存在对应关系,除非考虑特定的掩蔽策略,否则这种时间相关性可能导致信息泄漏(即掩蔽的时空内容再次出现)。...从这个意义上说,对于每个掩蔽图像块,很容易相邻中找到相应的未掩蔽的副本。这一特性将使模型学习的一些难以推广新场景的“快捷方式”(比如从特定区域抽取图像块)。...这导致了时间上的两个重要特征:时间冗余和时间相关性。时间冗余使得可以极高的掩蔽比下恢复像素。时间相关性导致通过普通的掩蔽或随机掩蔽,模型能够相邻中找到那些对应的块来更容易地重建丢失的像素。...这种高掩蔽比有助于减轻掩蔽建模过程中的信息泄漏,使掩蔽视频重建成为一项有意义的自监督预训练任务。其次,时间相关性是VideoMAE设计中的另一个因素。...VideoMAE引入了两种关键设计,即极高的掩蔽比和管道掩蔽策略,这使视频重建任务更具挑战性。这项更具挑战性的任务将鼓励VideoMAE学习更具代表性的特征,缓解信息泄露的问题。

    18510

    VideoMAE:南大MCG&腾讯AI Lab 提出第一个视频版MAE框架,使用90%甚至95%遮挡,性能SOTA!

    因此,学习的视频Transformer自然会受到基于图像的模型的影响,如何无需使用任何预训练的模型或额外的图像数据,有效地训练一个普通的视频视觉Transformer仍然是一个挑战。...此外,视频可视为静态外观的时间演化,之间存在对应关系。除非考虑特定的掩蔽策略,否则这种时间相关性可能导致重建过程中的信息泄漏。...从这个意义上讲,对于每个掩蔽立方体,很容易相邻中找到相应的未掩蔽副本。此属性将使学习的模型识别一些难以推广新场景的“快捷”特征。...借助VideoMAE中的这两个核心设计,本文方法能够相对较小的视频数据集上成功地训练vanilla ViT主干,如Something-Something、UCF101和HMDB51,没有额外数据的情况下...Temporal downsampling 根据以上对连续时间冗余性的分析,作者提出使用跨步时间采样策略来执行更有效的视频预训练。首先从原始视频V中随机抽取一个由t个连续组成的视频片段。

    73710

    WebSocket攻防对抗概览

    ,它使用的安全模型为WEB浏览器常用的源模型(origin model) 备注:全双工是微处理器与外围设备之间采用发送线和接受线各自独立的方法,可以使数据两个方向上同时进行传送操作,指在发送数据的同时也能够接收数据且两者同步进行...data: (x+y) bytes:有效载荷数据定义为与应用程序数据连接的扩展数据 Extension data: x bytes:除非协商了扩展,否则扩展数据为0字节,任何扩展都必须指定扩展数据长度如何计算该长度以及开始握手时必须如何协商扩展使用...)必须设置为适当值,以便接收方将数据解释为文本或二进制数据 包含数据的最后一的FIN位(FIN)必须设置为1 如果客户端正在发送数据,则必须定义屏蔽 如果已经为WebSocket连接协商了扩展,则可以根据这些扩展的定义应用其他考虑因素..."数据"部分的介绍进行理解即可,这里不再去赘述~ 关闭握手 简易流程 关闭握手比开启握手要简单许多,只需要任何一个对等方发送包含指定控制序列数据的控制来结束握手即可,当其中一方接收到这样的另一个对等体将发送一个关闭作为响应...通信,此外它还将请求转换为客户端 第三步:反向代理认为客户端和后端之间建立了WebSocket连接,而实际上没有WebSocket连接,因为后端拒绝了升级请求,同时代理将客户端和后端之间的TCP或TLS

    12110

    万字综述!从21篇最新论文看多模态预训练模型研究进展

    然后将其投影匹配视觉特征的维度,对其求和。...输出特征向量上添加一个完全连通的图层,并将其投影与汇集的输入RoI对象特征相同的维度,然后应用L2损失函数来进行回归。...task ViLT预训练的优化目标有两个:一个是image text matching(ITM),另一个是masked language modeling(MLM)。...其中掩蔽文本预测仍然沿用BERT的设计,掩蔽图像预测和掩蔽预测一般都不会直接预测原始的物体对象/图像,而是预测特征。 第二类主要是针对多模态数据而设计的。...第二是更精细的挖掘不同模态数据间的相关信息设计更巧妙的预训练任务。比如挖掘图像-文本之间,名词与物体对象之间的相关性,使得模型建立词语与物体对象之间的相关性。

    4.6K22

    ACM MM2021 HANet:从局部整体的检索!阿里提出用于视频文本检索的分层对齐网络HANet!代码已开源!

    不同级别的对齐捕获视频和文本之间从细粗的相关性,利用三个语义级别之间的互补信息。此外,通过明确学习关键语义概念,本文提出的HANet也具有丰富的可解释性。...两个公共数据集,即MSR-VTT和VATEX,上的大量实验表明,所提出的HANet优于其他SOTA的方法,这证明了分层表示和对齐的有效性。 ▊ 1....作者通过概念(concept )建立了视频(或片段)与关键字(如名词和动词)之间的跨模态关联。...为了提取更多的高级表示,作者首先使用卷积层将和投影另一个空间中: 其中是一个Squeeze-and-Excitation block来显式地建模通道之间的相互依赖关系。...作者使用余弦相似度来衡量全局视频和全局文本之间的跨模态相似性 image.png 3.5 Training and Inference 3.5.1 Training 一旦计算出了所有的相似性得分,就得到了视频和句子之间两个相似性

    2.5K10

    针对Wi-Fi的聚合和分段漏洞攻击

    为了将IPv4数据包更改为A-MSDU,攻击者客户端和AP之间建立了多通道MitM。根据长度和QoS优先级来检测包含IPv4数据包的加密802.11。...根据长度检测到注入的IPv4数据包,将其转发给受害者之前先设置A-MSDU标志,并成功注入路由器通告以毒害受害者的DNS服务器。...这两个加密的片段用Enc n k {Frag0(s)}和Encn + 1 k {Frag1(s)}表示。然后,攻击者依靠多通道MitM位置来拦截所有分段根据其唯一长度来检测攻击者指定的数据包。...AP解密该片段并将其存储受害者MAC地址下的片段缓存中。此后,攻击者通过发送Deauth与网络断开连接,随后客户端和AP之间建立多通道MitM。...攻击的第1阶段和第2阶段之间,客户端与不受信任的网络断开连接,此后,客户端将连接到受信任的(公司)网络。客户端连接时,攻击者会在客户端和AP之间建立多通道MitM位置。

    66331

    循环神经网络综述-语音识别与自然语言处理的利器

    不同的是,全连接神经网络中递推是之间建立的,而这里是沿着时间轴建立的。限于篇幅,在这里我们不详细介绍和推导BPTT的原理,如果有机会,SIGAI会在后续的公众号文章中给出。...., xT,最后时刻T产生的隐含层状态值hT作为序列的编码值,它包含了时刻1T输入序列的所有信息,在这里我们将其简写为v,这是一个固定长度的向量。...观测是指目标检测算法在当前检测出的目标,同样的,它也有大小、位置、速度等状态值。在这里,我们要建立目标与观测之间的对应关系。下图是数据关联的示意图: ?...根据当前的观测数据,对预测值进行校正,修正物体的状态值,包括运动状态值。 3.目标的出现与消失。学习如何根据目标的状态值、当前时刻的观测值,以及数据关联信息来处理新目标的出现,已有目标的消失问题。...整个视频被分成一系列的固定长度片段,每个片段包括相同数量的,被处理成固定大小的输入图像。第三个卷积层后面是两个连接层,最后一个全连接层有6个神经元,即卷积网络的输出向量为6维。 ?

    1.7K20

    WebSocket攻防对抗一篇通

    ,它使用的安全模型为WEB浏览器常用的源模型(origin model) 备注:全双工是微处理器与外围设备之间采用发送线和接受线各自独立的方法,可以使数据两个方向上同时进行传送操作,指在发送数据的同时也能够接收数据且两者同步进行...data: (x+y) bytes:有效载荷数据定义为与应用程序数据连接的扩展数据 Extension data: x bytes:除非协商了扩展,否则扩展数据为0字节,任何扩展都必须指定扩展数据长度如何计算该长度以及开始握手时必须如何协商扩展使用...)必须设置为适当值,以便接收方将数据解释为文本或二进制数据 包含数据的最后一的FIN位(FIN)必须设置为1 如果客户端正在发送数据,则必须定义屏蔽 如果已经为WebSocket连接协商了扩展,则可以根据这些扩展的定义应用其他考虑因素..."数据"部分的介绍进行理解即可,这里不再去赘述~ 关闭握手 简易流程 关闭握手比开启握手要简单许多,只需要任何一个对等方发送包含指定控制序列数据的控制来结束握手即可,当其中一方接收到这样的另一个对等体将发送一个关闭作为响应...通信,此外它还将请求转换为客户端 第三步:反向代理认为客户端和后端之间建立了WebSocket连接,而实际上没有WebSocket连接,因为后端拒绝了升级请求,同时代理将客户端和后端之间的TCP或TLS

    24210

    视频预训练界的HERO!微软提出视频-语言全表示预训练模型HERO,代码已开源!

    FOM中,作者随机选择打乱视频的一个子集,训练模型恢复它们的原始顺序。大量的消融研究表明,VSM和FOM视频+语言预训练中都起着关键作用。...这些视觉特征concat起来,通过一个全连接(FC)层投影与token嵌入投影相同的低维空间中。 由于视频是顺序的,因此它们的位置嵌入可以与文本嵌入器中相同的方式进行计算。...与BERT直接连接所有文本token和视觉作为输入的编码器相比,本文的模型有效地利用字幕句子和视频之间的时间对齐,以更细粒度的方式进行多模态融合。...VSM旨在学习局部对齐(视觉和字幕句子之间)和全局对齐(视频片段和字幕句子序列之间)。FOM是通过学习随机重排序的原始顺序来建模视频的顺序特征的。...根据剩余的和所有的字幕句子,训练模型重构mask的。被mask的视觉用零向量替代,与用离散标签表示的文本token不同,视觉特征是高维和连续的,因此不能通过类的似然进行监督。

    2.5K20

    AIGC下一站:期待、警惕充斥着AI剪辑师的世界

    它可以根据详细提示创建更长的视频,实现 “有故事、有长度”。...它生成任意时间长度的视频能力来源于其新编解码器 CViVIT——该模型建立 Google 早期文生图系统 Imagen 中磨练的技术之上,但在其中加入了一堆新组件,从而可以将静态转换为流畅的运动。...Phenaki 引入了一个双向掩蔽变换器和因果关注机制,允许从文本提示序列生成任意长度的视频;CogVideo 则通过使用多速率分层训练策略来调整 CogView 2 文生图模型,以更好地对齐文本和视频剪辑...即主要主体往往之间看起来略有不同,背景也不一致,这使得完成的视频看起来一切都在不断运动,缺乏真实感。同时,大多数方法都需要大量的标记数据并进行大量的训练,这是极其昂贵难以负担的。...该研究主要进行了两个关键修改:一是为生成的潜在代码添加动态运动信息,以保持全局场景和背景时间的一致性;二是使用新的跨注意力机制,对每个第一的关注,重新编程级自注意力,以保持前景对象的上下文、

    45340

    重学计算机网络-OSI 模型的层

    物理拓扑 :物理层指定如何在网络中布置不同的设备/节点,即总线、星形或网状拓扑。 传输方式 :物理层还定义了数据如何两个连接的设备之间流动。各种可能的传输模式是单工、半双工和全双工。 1....当数据包到达网络时,DLL 负责使用其 MAC 地址将其传输到主机。 数据链路层分为两个子层: 从网络层接收的数据根据NIC(网络接口卡)的大小进一步划分为。...第 5 层 - 会话层 该层负责建立连接、维护和身份验证,确保安全性。 会话层的功能 会话建立、维护和终止 :该层允许两个进程建立、使用和终止连接。...消息 – 5 会话层 建立连接、维护、确保身份验证确保安全性。 消息 网关 4 传输层 从网络层获取服务并将其提供给应用层。...段 防火墙 3 网络层 将数据从一个主机传输到位于不同网络中的另一个主机。 包 路由器 2 数据链路层 消息的节点到节点传递。 框架 开关、桥接 1 物理层 设备之间建立物理连接

    30440

    AIGC下一站:期待、警惕充斥着AI剪辑师的世界

    它可以根据详细提示创建更长的视频,实现「有故事、有长度」。...它生成任意时间长度的视频能力来源于其新编解码器 CViVIT——该模型建立 Google 早期文生图系统 Imagen 中磨练的技术之上,但在其中加入了一堆新组件,从而可以将静态转换为流畅的运动。...Phenaki 引入了一个双向掩蔽变换器和因果关注机制,允许从文本提示序列生成任意长度的视频;CogVideo 则通过使用多速率分层训练策略来调整 CogView 2 文生图模型,以更好地对齐文本和视频剪辑...即主要主体往往之间看起来略有不同,背景也不一致,这使得完成的视频看起来一切都在不断运动,缺乏真实感。同时,大多数方法都需要大量的标记数据并进行大量的训练,这是极其昂贵难以负担的。...该研究主要进行了两个关键修改:一是为生成的潜在代码添加动态运动信息,以保持全局场景和背景时间的一致性;二是使用新的跨注意力机制,对每个第一的关注,重新编程级自注意力,以保持前景对象的上下文、

    33110
    领券