首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当使用不同的类别与子集时,svyboxplot结果会发生变化

。svyboxplot是一种基于抽样设计的箱线图方法,用于可视化调查数据的分布情况。它可以帮助我们观察不同类别或子集之间的差异和变化趋势。

在使用svyboxplot时,我们可以根据需要选择不同的类别或子集进行分析。这些类别或子集可以是调查数据中的任意变量或属性,例如性别、年龄组、地区等。当我们选择不同的类别或子集时,svyboxplot会根据这些选择来计算和绘制箱线图。

具体而言,当我们使用不同的类别时,svyboxplot会根据每个类别的取值将数据分组,并计算每个类别的五数概括(最小值、下四分位数、中位数、上四分位数、最大值)。然后,它会绘制出每个类别的箱线图,其中箱体表示四分位数范围,中位线表示中位数,须线表示数据的整体分布范围。

当我们使用不同的子集时,svyboxplot会根据子集的条件筛选数据,并对筛选后的数据进行箱线图分析。这样可以帮助我们观察在不同条件下数据的分布情况,比较不同子集之间的差异。

svyboxplot的结果变化可以反映不同类别或子集之间的差异和变化趋势。通过观察箱线图的形状、位置和离群点等信息,我们可以得出关于数据分布、异常值和趋势的一些结论。

对于云计算领域的应用,svyboxplot可以用于分析和比较不同类别或子集的云计算资源使用情况、性能指标、用户行为等。例如,我们可以使用svyboxplot来比较不同地区用户的云计算资源消耗情况,或者比较不同时间段的云计算服务性能指标。

腾讯云提供了一系列与云计算相关的产品,可以帮助用户进行数据分析和可视化。其中,腾讯云的数据仓库产品TencentDB for TDSQL、云服务器CVM、云原生容器服务TKE等都可以与svyboxplot结合使用,进行数据处理和可视化分析。

更多关于腾讯云产品的介绍和详细信息,您可以访问腾讯云官方网站:https://cloud.tencent.com/

相关搜索:当Rmd文件位于不同的位置时,手动编织该文件会产生不同的结果定位覆盖会产生与使用ffmpeg绘制文本不同的结果。当使用向量来获取数据帧的子集时,为什么结果行会偏移?当参数是字符串与RegExp类时,Angular 2形式的RegEx验证器会产生不同的结果原理-使用MIN运算符时与SQL的结果不同当使用不同的参数值加载时,会多次加载角度页面为什么通过扩展使用的flatMap会返回与直接调用不同的结果?使用模型对批量与使用pytorch的个体进行推断时的不同结果当使用stride=2时,pytorch和tensorflow的ResNet模型给出了不同的结果当涉及非英文字母时,qdapRegex::rm_nchar_words会返回不同的结果吗?左连接与内连接在使用Substring/Left函数时导致不同的结果为什么在WHERE子句中使用TSQL变量会产生与使用相同值的常量不同的结果?当由不同的用户运行时,在SQL查询中使用MAX和COALESCE会产生奇怪的结果Excel:在数组公式中使用median和if会产生与手动选取的单元格不同的结果使用订阅管道与异步管道时,来自同一可观察对象的不同结果当使用BeautifulSoup时,在某些搜索结果中,html需要不同索引号中的数据当对预定义变量使用master.sys.fn_varbintohexstr函数时,HASHBYTES返回不同的结果仅当对象具有与使用jq的前一个对象不同的元素时,才选择该对象当使用不同的库,如NodeJS中的Zlib和.Net中的SharpZipLib时,GZip类型压缩比会发生变化吗?如何在R中的函数范围()中包含小数位,当您从一个变量中将那些与NA不同的变量子集时
相关搜索:
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

深入机器学习系列之:Decision Tree

有三种情况会导致递归的返回: (1)当前节点包含的样本全属于同一个类别。(2)当前属性值为空,或者所有样本在所有属性上取相同的值。 (3)当前节点包含的样本集合为空。...所谓分裂属性就是在某个节点处按照某一属性的不同划分构造不同的分支,其目标是让各个分裂子集尽可能地“纯”。 尽可能“纯”就是尽量让一个分裂子集中待分类项属于同一类别。...此时使用属性划分的一个子集进行测试,按照“属于此子集”和“不属于此子集”分成两个分支。 3、属性是连续值。...随机森林实现中,当树的个数为1时,它的实现即为决策树的实现: ? 这里的strategy是Strategy的实例,它包含如下信息: ? 决策树的实现我们在随机森林专题介绍。...这里我们只需要知道,当随机森林的树个数为1时,它即为决策树, 并且此时,树的训练所用的特征是全部特征,而不是随机选择的部分特征。即featureSubsetStrategy = "all"。

57340

AAAI 2018 | 如何高效进行大规模分类?港中文联合商汤提出新方法

在这项研究中,我们观察到了两个重要结果:(1)在大多数情况下,一个类别的样本只会和少量其它类别产生混淆;(2)当使用了 softmax 损失时,对于每个样本而言,从这个小的类别子集反向传播回来的信号会主导其学习过程...表 1:IJB-A 列中的量是当 FPR 为 0.001 时的 TPR,在 Megaface 识别任务中的是 top-1 准确度 图 2:不同方法的人脸识别准确度与对应的计算成本。...当点在左上角时表示使用低成本实现了优良的表现。注意 x 轴是对数标度 结果表明: (1)对于随机采样,当活跃类别数量增大时,表现会缓慢增长。...由我们提出的 HF 方法所选择的类别非常接近最优子集(比其它方法精确很多),由此能得到显著更优的表现。 图 3:不同方法的人脸识别准确度与近似精度。...表 2:大规模实验中的表现与成本 图 4:Random、Optimal 和 HF 在不同数据集上使用不同的活跃类别数量 M 时所应对的表现 图 5:不同的哈希树数量 L 所应对的表现

1.4K80
  • 《揭秘机器学习中的交叉验证:模型评估的基石》

    不过,它也存在一定局限性,例如对数据划分的随机性较为敏感,不同的划分可能导致结果波动,且当K值较大时,计算成本显著增加,因为需要训练和测试K次模型。...但它的缺点也很明显,计算成本极高,因为需要训练N次模型,当数据量很大时,计算负担难以承受,而且结果容易受到单个异常值的影响,若数据中存在噪声或异常点,可能会严重干扰模型评估结果。...分层交叉验证 分层交叉验证主要应用于分类任务,特别是在类别不平衡的数据集中表现出色。其特点是在划分数据子集时,确保每个子集中各类别的比例与原始数据集的类别分布一致。...这样做的好处是避免了因随机划分导致某些子集中类别分布严重偏斜,从而使模型评估结果更准确。...使模型在不同类别样本上的性能都能得到有效评估。

    17610

    概念深奥看不懂?一文读懂元学习原理

    在例子中,需要对猫、熊、鱼和鸟一共 4 类图片进行分类,但每次构建训练集时,只使用这些分类的子集,并将训练集分为支持集和目标集。...我们不向快速学习器一次性展示所有类别的原因是因为,当我们在少数几个类别中只展示一些图片时,我们希望模型能够正确的预测结果(在推断时)。另外,并不是所有的类别都会被用于训练集。...每次只给快速学习器展示一个训练集的数据,它只能获得所有类别中一个小子集。元学习器通过多次循环训练集,每次给快速学习器一个不同的子集。...当这个网络由正确的参数进行初始化,它就可以快而简单地使用少量新数据进行调整。这说明,初始的一组神经网络参数可能对新任务非常敏感,小的参数变化会极大提高损失函数在任何任务上的表现。 ?...图 4:损失函数在不同任务上的梯度。当初始化一个理想的神经网络后,损失函数的梯度会根据新任务发生变化。

    1.8K40

    【行业】2018年你应该知道的十大机器学习算法

    当对现有数据进行测试时,新数据可以通过现有数据了解这些问题,当有新的数据出现时,计算机可以将数据归类到正确的分支中。 ? 2.随机森林 从原始数据中随机选择,并形成不同的子集。 ?...3.逻辑回归 当预测目标的概率大于0且小于或等于1时,简单的线性模型不能满足预测目标的概率。因为当定义的域不在一定级别时,范围将超过指定的间隔。 ? 我们最好使用这种模型。 ?...当a被确认时,使用(a,2a)的结果为支持向量,代入a和w0的方程为支持向量机。 5.朴素贝叶斯 下面是NLP的一个例子:给出一段文字,检查文本的态度是积极的还是消极的: ?...记住不要忘记方程中的其它两个概率。 例如:“爱”一词的出现概率在正类中为0.1,在负类中为0.001。 ? 6.k-最近邻 当出现一个新的数据时,哪个类别有最接近它的点,它属于哪个类别。...如下图所示,树1和树2分别没有好的效果,但是如果我们输入相同的数据,并对结果进行总结,最终的结果会更有说服力。 ?

    30840

    高度不平衡的数据的处理方法

    这个过程被重复多次,直到多数类的所有子集都被建模。最后,将所有创建的分类器组合起来,以产生最终的分类结果。 我们将使用SPSS Modeler向您展示此方法的实现。 ?...您首先从主要类别案例中随机抽样。接下来,您使用自动分类器节点从附加子集构建初步模型。之后,您需要使用它对所有主要类案例进行评分,并使用Select节点放弃那些正确分类的主要类案例。 ?...在部署在此过程中生成的模型块时,您需要将它们全部连接到数据源并获取类似于下图所示的规则。 ? 成本矩阵操作 虽然抽样方法试图改变不同类别的分布,但成本矩阵操纵改变了误分类惩罚。...通常,将多数类别错误归类为少数类别的成本要比将少数类别错误归类为多数类别的成本要小。例如,当试图通过乳房X线照相检查来鉴定癌症患者时,人们会认为将癌症患者错误分类为非癌症患者比其他方式成本高得多。...在建模节点中,您可以选择使用错误分类成本选项并尝试不同的成本。 ?

    1.4K20

    Improved Object Categorization and Detection Using Comparative Object Similarity

    我们还展示了我们的方法在基线1之上的平均AUC改进,作为表2中训练实例数量的函数。我们可以观察到,当积极训练的例子较少时,比较相似是最有帮助的。当正例数量增加时,使用比较相似度得到的结果很少。...在训练子集选择过程中,我们随机选择一定数量(如20个)的正训练样本,重复5次,计算平均值进行比较。当使用我们的方法训练目标模型时,如果我们枚举它们中的每一个,可能会有太多的相似对。...讨论什么时候比较相似是有帮助的:表2和表6都表明,当积极的例子很少时,比较目标相似性是有帮助的。但是,当正例数量增加时,比较目标相似度甚至会降低性能。...使用相似度约束会有所帮助,因为会使用更多相关的信息。例如,一些公交区域看起来像火车。当使用火车作为类似目标类别来训练总线检测器时,使用我们的方法,它们的级别会更高。???...当使用相似度时,学习的目标模型可能会将目标类别与相似类别混淆,因为来自相似类别的信息是共享的。如图10所示,在检测摩托车时,许多自行车实例都排在前面。

    1.2K50

    【机器学习 | 决策树】利用数据的潜力:用决策树解锁洞察力

    基尼指数的取值范围为0到1,数值越小表示数据集的纯度越高,即样本的类别越一致。当数据集D中只包含一种类别的样本时,基尼指数为0,表示数据集完全纯净。...当数据集D中的样本类别均匀分布时,基尼指数最大(即值越小)为1,表示数据集的不确定性最高。...对于属性取值较少且不均匀分布的特征,在使用基尼系数进行划分时可能会产生偏向性。基尼指数更倾向于选择具有较大数量样本的特征作为划分点,而在多类别问题中可能会忽略少数类别之间的差异。...决策树的输出结果就是针对测试样本的分类结果,即该测试样本所属的类别。 决策树的优点在于易于理解和解释,能够处理不同类型的数据,且不需要对数据进行预处理。...与分类树不同,决策树回归模型的叶子节点不再表示类别标签,而是表示一段连续区间或者一个数值。

    36220

    CIKM2022: LTE4G:图神经网络中的长尾专家

    图1(c)展示了不同分布节点子集下的分类准确率,其中HH表示共同属于头类别以及头节点的节点,其他三类节点表示类似,从而证明了联合考虑两种长尾分布的重要性。图2则展示了图1(c)中准确率分布趋势的细节。...编码器表示为: ,预训练GNN的输出为: 由于通过传统的交叉熵损失对不平衡数据进行训练会导致编码器预测偏向于头部类别,故本文利用了焦点损失函数,对错误分类的样本赋予比正确分类的样本更高的权重,从而减少偏差...虽然上述损失可以在每个专家负责的类别以及节点度上提供准确的分类结果,但剩下的挑战是但剩下的挑战是如何利用专家的知识来获得最终的节点分类结果。...2.3 将专家的知识蒸馏给学生模型 需要注意的是,当为某个专家分配的节点数量不够时,上一步获得的知识有时可能会有噪声。...本文模型与基线模型的节点分类对比如表3、4、5所示,本文模型在不同不平衡率下基本都取得了最先进的结果。 本文的消融实验如表6、7所示。

    58030

    理解随机森林:基于Python的实现和解释

    数据点会根据该问题的答案在该决策树中移动。 gini:节点的基尼不纯度。当沿着树向下移动时,平均加权的基尼不纯度必须降低。 samples:节点中观察的数量。 value:每一类别中样本的数量。...其思路是,通过在不同样本上训练每个树,尽管每个树依据训练数据的某个特定子集而可能有较高方差,但整体而言整个森林的方差会很低。...这种在数据的不同子集上训练每个单个学习器然后再求预测结果的平均的流程被称为 bagging,这是 bootstrap aggregating 的缩写。...我们首先了解了单个决策树,这是随机森林的基本构建模块;然后我们看到了可以如何将数百或数千个决策树组合成一个集合模型。当这种集合模型与 bagging 和随机的特征采样一起使用时,就被称为随机森林。...随机特征子集:在考虑如何分割决策树中的每个节点时,选择一个随机的特征集。 随机森林:由数百或数千个使用 bootstrapping、随机特征子集和平均投票来做预测的决策树构成的集合模型。

    1K20

    「Workshop」第二十六期 随机森林

    基本概念 决策树是基于树结构来进行决策的,这是一种人在决策时自然的处理机制,即进行决策时,会进行一系列的“子决策”,每个决策过程中进行的判断,都是在上次决策结果的限定范围内,每个决策都只考虑在当前的判断...y是结果的类别有几类,k是第k类,pk就是当前样本集合D中第k类样本占的比例。...如何获得好的集成结果: 个体分类器好而且不同。...Bagging与随机森林 3.1 Bagging 对预测进行组合输出 分类:简单投票法 回归:简单平均法 为了得到泛化性能强的集成,个体学习器最好相互独立,可以通过: 对训练样本采样生成不同的子集...基学习器是决策树时,可使用包外样本来辅助剪枝,当基学习器是神经网络时,可使用包外样本来辅助早期停止以减小过拟合风险。

    1K30

    如何用机器学习方法进行数据建模?(文末福利)

    ,属于不同类的样本之间的距离尽可能大;使用信息增益作为度量函数的动机在于:假设存在特征子集A和特征子集B,分类变量为C,若A的信息增益比B大,则认为选用特征子集A的分类结果比B好,因此倾向于选用特征子集...一致性指的是:若样本1与样本2属于不同的分类,但在特征A和B上的取值完全一样,那么特征子集{A, B}不应该选作最终的特征集。...事实上,具体到每一个机器学习方法,根据上述不同的分类准则,可能会归属到一个或多个类别中。...当因变量和自变量的关系是线性时,则称为线性模型(这是最简单的一类数学模型)。当数学模型的函数形式是未知参数的线性函数时,称为线性回归模型;当函数形式是未知参数的非线性函数时,称为非线性回归模型。...根据映射函数g (z)的不同选择,其分类性能也不同,比如如果映射函数是Sigmoid函数时,其分类结果为0和1两类,而如果映射函数是双曲正弦sinh函数时,其分类结果则为1和-1两类。

    1.2K20

    面向高维和不平衡数据分类的集成学习研究论文研读笔记「建议收藏」

    数据不平衡的分类困难的本质原因: 1.不恰当的评估标准:传统的分类算法通常在假设类别平​​衡的前提下,采用分类准确率作为评价标准,以平均准确率最大化为目标当类别不平衡时,为达到精度最大化,往往会牺牲少数类的性能...是对第一种方法的改进,由于子集的划分保证了多样性,不同子集上的降维结果将有所区别,在特征减少的同时,可以利用多个子集弥补由于降维效果不佳所带来的损失。 3)基于特征的集成学习。...Wrapper器特征选择的核心思想是:与学习算法无关的过滤特征评价与后续的分类算法产生较大的偏差不同的学习算法偏好不同的特征子集,特征选择后的特征子集最终将用于后续的学习算法,则该学习算法的性能就是最好的评估标准...因此,BRFVS采用ķ层交叉验证的方法来获取特征重要性度量。 权重计算方法 当大类数据和小类数据严重不平衡时,对大类数据欠采样时可能会产生差异性较大的UndeSamplingD数据子集。...当w取值为0的时候,属性分裂度量与测试代价无关。

    1.4K40

    浅谈关于特征选择算法与Relief的实现

    在错误率和特征子集的维数之间进行折中。 上述3个问题都是一个NP难问题,当特征维度较小时,实现起来可行,但是当维度较大时,实现起来的复杂度很大,所以实际应用中很难实用。...评价函数的设计在不同的应用场景下会不同,比如有的会根据其分布是否均匀判断,或者看对最终模型的效果进行判断。每种评价函数各有优劣,所以需要根据实际情况进行选择。...双向搜索( BDS , Bidirectional Search ) 算法描述:使用序列前向选择(SFS)从空集开始,同时使用序列后向选择(SBS)从全集开始搜索,当两者搜索到一个相同的特征子集C时停止搜索...当数据分布较均匀,且簇与簇之间区别明显时,它的效果较好。面对大规模数据集,该算法是相对可扩展的,并且具有较高的效率。其中,n为数据集中对象的数目,k为期望得到的簇的数目,t为迭代的次数。...K 1 %获取随机R 以及找出邻近样本 2 %D:训练集;D1:类别1数据集;D2:类别2数据集; 3 %Dh:与R同类相邻的样本距离;Dm:与R不同类的相邻样本距离 4 function [R

    7.6K61

    decision tree

    优点:简单,可以处理不相关的特征数据 缺点:可能会产生过度匹配 适用:数值和标称 决策树通常有三个步骤:特征选择、决策树的生成、决策树的修剪。...在划分的时候,为了要找到决定性的行情,我们必须评估每一个特征,找到具有决定性的特征,并根据这个特征进行数据集的分割。如果数据子集内的数据属于不同的类型,则需要重复进行划分。...算法 创建决策树的过程: 1.获得数据集最后结果的类别集合 classList = [example[-1] for example in dataset] 2.如果获得的结果集中的类别仅仅只有一个比如说都是男...2.遍历获得每一条数据的最后一个类别,并统计个数,用字典存放,最后套用公式计算 初始化最好的特征标签位位-1 依次选取每一个特征标签,通过去除这一列,获得数据集,并计算器其熵值,并计算原始熵与分类后的差值...划分数据前后信息发生变化成为信息增益。

    48220

    KMeans聚类算法思想与可视化

    聚类分析不需要事先知道样本的类别,甚至不用知道类别个数,因此它是一种无监督的学习算法,一般用于数据探索,比如群组发现和离群点检测,还可以作为其他算法的预处理步骤。...---- 2.Kmeans算法思想 2.0 算法步骤 Kmeans算法(k均值算法)是一种简单的聚类算法,属于划分式聚类算法,当给定一个数据集D时,Kmeans算法的步骤如下: 选择K个点作为初始质心(...2.1 初始质心的选取 Kmeans算法对初始质心的选取比较敏感,选取不同的质心,往往会得到不同的结果。初始质心的选取方法,常用以下两种的简单方法:一种是随机选取,一种是用户指定。...,0.2),那么它们的欧氏距离就是: (1000−900)2+(0.1−0.2)2−−−−−−−−−−−−−−−−−−−−−−√≈100 举这个例子是为了说明,当原始数据中各个维度的数量级不同时,它们对结果的影响也随之不同...因此,为了取得比较好的效果,我们一般会多跑几次算法(用不同的初始质心),得到多个局部最优解,比较它们的SSE,选取SSE最小的那个。

    5K60

    决策树2: 特征选择中的相关概念

    绘制出x在不同值时对应的信息熵x = np.linspace(0.01,0.99,100) plt.plot(x,entropy(x))plt.show() ?...当x=0.5时,曲线取到最大值,也就是说对于信息熵来说,只有两个类别,其中一个类别是0.5,另一个类别是1-0.5时,此时信息熵是最大的,也就是最不确定的。...随机变量给定的条件下随机变量的条件熵定义为给定条件下,的条件概率分布的熵对的数学期望: 其中, 注意,与信息熵不同的是,条件熵是数学期望,而不是变量的不确定性。...当二分类时, 样本集合D的基尼系数:假设集合中有K个类别,每个类别的概率是,其中表示类别k的样本个数,表示样本总数,则: 5.2 特征A划分样本集合D之后的基尼指数 一般来说,我们在使用中,用某个特征划分样本集合只有两个集合...举个例子: 假设现在有特征 “学历”,此特征有三个特征取值:“本科”,“硕士”, “博士”, 当使用“学历”这个特征对样本集合D进行划分时,划分值分别有三个,因而有三种划分的可能集合,划分后的子集如下:

    1.7K10

    《python数据分析与挖掘实战》笔记第5章

    稳定性选择是一种基于二次抽样和选择算法相结合较新的方法,选择算法可以是回 归、SVM或其他类似的方法。它的主要思想是在不同的数据子集和特征子集上运行特征 选择算法,不断重复,最终汇总特征选择结果。...与分类模型需要使用有类标记样本构成的训练数据不同,聚类模型可以建立在无类标记的数据上,是一种非监督的学习算法。...3) 所有对象分配完成后,重新计算K个聚类的中心。 4) 与前一次计算得到的K个聚类中心比较,如果聚类中心发生变化,转过程2),否则 转过程5)。 5) 当质心不发生变化时停止并输出聚类结果。...在所有对象分配完成后,重新计算K个聚类的中心时,对于连续数据,聚类中心取该簇的均值,但是当样本的某些属性是分类变量时,均值可能无定义,可以使用K-众数方法。...当数据集较大时,可以考虑并行运算优化。

    93110

    特征选择

    工作原理 包装法是指使用算法模型对特征子集与目标(标签)集进行训练评估,根据训练的精度(准确率)衡量特征子集的好坏,从而挑选出最好的特征子集。...原理实现:在不同的特征子集上运行训练模型,不断地重复,最终汇总特征选择的结果。比如可以统计某个特征被认为是重要特征的频率 (被选为重要特征的次数除以它所在的子集被测试的次数)。...(2)类别不平衡问题会造成这样的后果: 在数据分布不平衡时,其往往会导致分类器的输出倾向于在数据集中占多数的类别。 输出多数类会带来更高的分类准确率,但在我们所关注的少数类中表现不佳。...A 样本数据划分为若干个样本子集供不同学习器使用, 这样对每个学习器来看都进行了欠采样,但在全局来看却不会丢失重要信息。...方法中, 当由边界的样本与其他样本进行过采样差值时, 很容易生成一些噪音数据.

    1.3K32

    (数据科学学习手札26)随机森林分类器原理详解&Python与R实现

    learner),因此集成学习的很多理论研究都是针对弱学习器来的,通过分别训练各个个体学习器,预测时将待预测样本输入每个个体学习器中产出结果,最后使用加权和、最大投票法等方法将所有个体学习器的预测结果处理之后得到整个集成的最终结果...;一方面,我们希望尽可能增大基学习器间的差异:给定一个数据集,一种可能的做法是对训练样本进行采样,分离出若干个子集,再从每个子集中训练出一个基学习器,这样我们训练出的各个基学习器因为各自训练集不同的原因就有希望取得比较大的差异...而且包外样本还可以在一些特定的算法上实现较为实用的功能,例如当基学习器是决策树时,可使用保外样本来辅助剪枝,或用于估计决策树中各结点的后验概率以辅助对零训练样本节点的处理;当基学习器是神经网络时,可以用包外样本来辅助进行早停操作...;   随机森林的收敛性与Bagging类似,但随机森林在基学习器数量较为可观时性能会明显提升,即随着基学习器数量的增加,随机森林会收敛到更低的泛化误差; 五、Python实现   我们使用sklearn.ensemble...; classwt:用于处理类别不平衡问题,即传入一个包含因变量各类别比例的向量; nodesize:生成叶结点的最小样本数,即当某个结点中样本数量小于这个值时自动将该结点标记为叶结点并计算输出概率,好处是可以尽量避免生长出太过于庞大的树

    1.5K70
    领券