前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AVS3关键技术、性能和复杂度分析

AVS3关键技术、性能和复杂度分析

作者头像
LiveVideoStack
发布于 2019-08-12 09:34:08
发布于 2019-08-12 09:34:08
5.3K0
举报
文章被收录于专栏:音视频技术音视频技术

本文由北京大学的范逵博士在LiveVideoStack线上分享第三季,第七期的内容整理而成,本次分享将主要从AVS3关键技术介绍、AVS3性能测试两个方面介绍AVS3基准档次中新采纳的编码工具,并分析这些编码工具的性能和计算复杂度。

文 / 范逵

整理 / LiveVideoStack

大家好,我是来自北京大学的范逵,本次分享的主题是AVS3关键技术介绍、性能和复杂度分析。

首先做一个自我介绍,我于2019年博士毕业于北京大学,2018-2019年新加坡南洋理工大学访问学者,2016-2019年间担任MPEG Internet Video Coding(IVC)标准专题小组副主席,目前担任AVS3标准参考软件维护人。主要研究领域是视频编解码算法、视频编码快速算法以及图像和视频处理三个方面。

1. AVS发展历史

本次分享将主要从AVS发展历史、AVS3关键技术介绍、AVS3性能测试和AVS3资料获取四个部分展开。

1.1 AVS1与AVS+

AVS1指第一代AVS标准,制定起始于2002年,于2006年2月颁布,性能与同期国际标准MPEG-2相当。AVS+于2012年7月获批成为广电行标,性能与同期的MPEG-4 AVC/H.264相当。

1.2 AVS2及其产业化

第二代的AVS标准简称AVS2,于2016年5月被颁布为广电行标,2016年的12月30日被颁布为国家标准,压缩效率与国际标准H.265/HEVC相当,但在全I帧编码以及监控场景编码中性能优于HEVC。在产业化方面,AVS2视频标准全面应用于IPTV和广东省4K超高清,解码芯片已由华为海思、晨星(Mstar)等研发并推向市场,广播级AVS2超高清实时编码器由深圳优微视觉等公司推向市场。

1.3 AVS3

说到AVS3,就不得不提AVS3的封闭开发。在去年十二月厦门会议后AVS标准工作组决定进行封闭开发,从去年的12月10日到2019年1月28日,历时48天完成了AVS3第一阶段标准制定任务,AVS3 Baseline Profile编码性能相比AVS2和HEVC提升超过20%。2019年3月9日的青岛会议上,AVS3的基准档次起草完成,预计于2022年投入应用,我国的AVS3+5G+8K产业发展将领先全球部署。之后进行的标准制定工作是AVS3 High Profile,即AVS3第二阶段标准,预计会在2020年6月制定完成,目标编码性能比AVS2提升一倍,也就是在现有AVS3 Baseline Profile的基础上提升20-30%的性能。

2. AVS3 关键技术介绍

2.1 基础块划分结构

AVS3采用了QT+BT+EQT的基础块划分结构,在上一代标准(AVS2和HEVC)中采用的是四叉树(QT)划分将一个CU划分为四个subCU。在AVS3中除了支持四叉树划分,还支持二叉树(BT)和EQT划分。其中,BT可以将一个CU划分为左右/上下两个subCU;EQT包含水平和竖直两种工字型划分方式,将一个CU划分为4个subCU,该技术由字节跳动公司提出。

AVS3中QTBT+EQT基础块划分结构在码流中的表征方式如上图所示。首先判断是否为QT,如果是QT,直接进行四叉树划分,如果不是QT就需要进一步判断是否不划分,如果不划分就结束判断,如果需要划分还要再判断是EQT还是BT,无论是EQT还是BT都需要判断是水平还是竖直划分。

基础块划分中很重要的一个部分是划分约束,在AVS3中所包含的约束划分为三种。第一种为划分尺寸约束,主要是指QT、BT和EQT最大/最小可使用的CU尺寸,括号中的数值为AVS3参考软件中设置的默认数值。除此之外的约束包括划分深度,AVS3中最大划分深度为6层;另外AVS3中编码单元最大的宽高比是1:8;QT划分要优先于BT/EQT划分,一旦进入BT/EQT划分就无法再进行QT划分。

第二种约束是边界约束,边界约束有三个,在图像右边界的时候只能进行BT的竖直划分,在图像下边界的时候只能进行BT的水平划分,在图像右下角边界只能进行QT划分。

第三种是VPDU的约束,VPDU约束更多是为了配合硬件实现的方便,如果当前单元出现了128x64/64x128的CU,就必须划分成两个64x64的CU。

2.2 帧间编码工具

2.2.1 AMVR

首先介绍自适应矢量精度,简称AMVR,在上一代AVS和HEVC标准中,运动矢量的精度均为¼像素,AVS3中新引入了½、1、2、4四种像素精度。在编码端对这五个像素精度进行编码,通过RDO过程选择最优的运动矢量精度,并将对应的索引传输到解码端。由于需要进行五次编码尝试,这会极大地增加编码端的复杂度,所以在AMVR中引入了三种快速算法:提前跳出、基于历史的MVR搜索策略以及对应不同的运动矢量精度设计了对运动估计的加速。AMVR由三星公司提出。

2.2.2 HMVP

HMVP是基于历史信息的运动矢量预测,该方法由字节跳动公司提出。HMVP技术从先前编码块拷贝八个运动信息候选到FIFO中,FIFO保持不断更新。上图中间部分反映了FIFO以先进先出的方式进行更新的例子,在这个例子中FIFO的第三个HMVP候选与刚刚编码完成的运动信息相同,这个重复的候选首先会被移除,在FIFO的尾部会加入当前编码单元的运动信息。如果当前编码单元的运动信息与FIFO中任意候选的运动信息均不相同,就会去掉FIFO中第一个候选,再将最新的运动信息加到FIFO末尾,保证FIFO中永远保留八个最新的运动候选。

HMVP中的运动候选与AVS2中已有的运动候选一起进行标识,使用Unary的方式进行二值化。AVS2中包含了五个运动候选,但在AVS3中去掉了对称模式,只剩余四个运动候选,再加上HMVP的8个候选一共是12个候选。

2.2.3 UMVE

UMVE技术,中文名为高级运动信息表达,该技术是在已经生成的运动候选基础上进行偏移,从而得到更优的运动候选。例如上图所示,将一个运动候选作为起始点,从上下左右四个方向进行搜索,偏移分别为¼、½、1、2、4像素,起始点有两个(2 base),四个偏移方向(4 direction)和5种offset,总共生成40个运动候选,该方法由三星公司提出。

2.2.4 AFFINE

已有的标准中支持的MV都是两个参数的(即X方向和Y方向的偏移),这种运动模型称为平移运动。4参数可以表达更丰富的运动模型,包括缩放、旋转或者斜切,6参数代表Affine模型,可以表达更复杂的运动。在AVS3中的仿射运动补偿支持4参数和6参数的运动模型,使用的运动矢量精度是1/16像素,针对尺寸大于16x16的CU,按照8x8的小块进行运动补偿。该技术由华为公司提出。

AVS3中的AFFINE技术可以分为AFFINE skip/direct和AFFINE inter两个部分。AFFINE skip/direct就是使用当前块周围的一些信息从而导出AFFINE模型和当前块的运动矢量,在目前的AVS3中最多支持5个AFFINE模式候选,并且需要将AFFINE index传输到解码端。AFFINE skip/direct运动候选列表的构建主要分为三步,第一是从临近AFFINE编码单元拷贝Affine模型;第二是利用当前块周围角点的运动信息生成AFFINE模型;最后,如果当前AFFINE运动矢量候选没有到达五个,就填充零。

AFFINE inter是在AFFINE skip/direct基础上加入了MVD,每一个控制点均需传输MVD。

2.2.5 PBT

PBT是基于位置的变换,被应用于帧间预测残差块,可以更好地拟合帧间残差特性。例如上图中左下角四分之一的区域分别标识了0,1,2,3,他们对应的水平和竖直的变换组合如右表中所示,通过在不同区域使用不同的变换组合,实现更高效的残差信号表达。PBT允许的变换类型包括DCT8和DST7。使用该方法的编码单元尺寸最大为32x32,最小为8x8,且编码单元长宽比不大于2。该方法由清华大学提出。

2.3 帧内编码工具

2.3.1 Intra DT

Intra Derived Tree简称Intra DT,叫做帧内衍生模式,这个方法主要是在编码单元的基础上加上了PU的概念,该方法总共支持六种PU划分(水平/竖直各三种),使用非对称和长条形划分方式,提升帧内编码效率。使用条件包括编码单元尺寸最大64x64,最小16x16,编码单元长宽比小于4,且当前编码单元使用IPF时,禁用Intra DT。该方法由清华大学提出。

IPF是由北大深研院提出的,该方法针对的问题是目前帧内预测中会忽略一些参考像素点与当前预测单元之间的关联性,通过预测滤波的方式可以有效增强空间关联性,从而提升帧内预测精度。如左图所示,预测方向是从右上到左下,生成当前帧内预测块主要使用的是MRB这一条参考像素点,预测样本块的左侧因为没有考虑与URB的关联性,所以预测效果较差。为了解决这一问题,IPF使用了URB中的参考像素对帧内预测块进行滤波,滤波器包括三种类型,分别为水平、竖直的2-tap滤波器和同时对水平和垂直方向滤波的3-tap滤波器,3-tap滤波器被应用在非角度预测模式以及右下对角模式。

TSCPM是一种分量间预测技术,通过探索不同分量之间的线性关系去除分量间冗余,如公式所示,recL代表亮度分量的重建值,通过两个线性参数α和β生成chroma的预测值predC。之所以称该技术是Two-Step,是因为它分为两个步骤执行。首先使用Co-located luma块,通过参数α和β生成尺寸相同的临时预测块;第二步再进行下采样,得到色度分量的预测值,该方法由字节跳动公司提出。

2.4 滤波器

2.4.1 deblock去块滤波器

在AVS3中直接继承了AVS2中的去块滤波方案,但由于严格的滤波条件,AVS2中现有的去块滤波方案常常会引入严重的块效应。这个问题在AVS3中的deblock去块滤波器中得到解决。首先滤波条件被放宽并且对滤波器系数进行了优化,另外简化了色度分量的去块操作,从而降低了色度滤波的计算复杂度。

3. AVS3性能测试

3.1 测试条件

性能测试采用了AVS3的通用测试条件进行测试,软件使用了AVS3的参考软件HPM-3.3,对比软件为RD-19.5和HM-16.20,配置使用random access(RA)。

3.2 Basic structure

AVS3基础结构相对于AVS2的平均性能增益为10.56%。基础结构不仅包括基础块划分结构,还包括对参考帧结构的优化和编码端决策的优化。AVS3的编码时间和解码时间相比AVS2均有下降,尤其是解码时间缩短为AVS2参考软件的一半。原因是AVS3的参考软件HPM已经经过了部分优化,该参考软件由北大深研院和华为公司共同提出。在HPM中主要包含三部分优化,第一个部分是所设计的数据结构较为简单,第二个是寻址方式更加快捷,第三个是在HPM中已经对关键的模块进行了数据并行加速。

相比HEVC,AVS3的编码性能增益为9.45%,编码时间是HEVC的一倍,解码时间略有上升。

之后进行tool-off测试,即在AVS3的参考软件中只关闭单个工具的性能,tool-off的实验结果基本可以反映单个工具在AVS3标准中的性能。上图中显示HMVP、UMVE、AFFINE和AMVR的性能分别为0.81%、0.94%、1.94%和3.87%。图中关闭UMVE后编码时间上升,这是因为UMVE和HMVP的运动候选是放在一起优化的,使用SATD进行粗选对编码端进行加速,随后再使用RDO进行编码决策。由于这个快速算法是放在UMVE工具下,所以在关闭UMVE之后时间有所上升。AMVR关闭之后时间减少30%,由此可见AMVR对时间复杂度的影响是非常大的。

IntraDT和IPF的性能分别是0.4%和0.71%,TSCPM在Y/U/V分量中的性能分别是0.51%、9.28%和9.20%,由于TSCPM主要是对色度分量的优化,因此它的主要性能来自于色度。IntraDT、IPF和TSCPM都是针对Intra的工具,所以在random access的配置下性能不是太高,IntraDT、IPF在All Intra配置下的性能分别是0.6%和1.4%。

总体性能对比结果来看,AVS3相比AVS2编码性能高出23.52%,时间复杂度增加了一倍,解码复杂度是AVS2参考软件的一半。相对HEVC平均编码性能提高了22.25%,时间复杂度大概是HEVC的7倍,解码时间略有上升。

4. AVS3资料获取

LiveVideoStack 招募

LiveVideoStack正在招募编辑/记者/运营,与全球顶尖多媒体技术专家和LiveVideoStack年轻的伙伴一起,推动多媒体技术生态发展。同时,也欢迎你利用业余时间、远程参与内容生产。了解岗位信息请在BOSS直聘上搜索“LiveVideoStack”,或通过微信“Tony_Bao_”与主编包研交流。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-08-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 LiveVideoStack 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
“ 本文及上一篇综述了最近关于语言模型中幻觉问题的研究进展,主要集中在ChatGPT发布后的研究。文章讨论了如何评估、追踪和消除幻觉,并探讨了现有挑战和未来方向。希望本文能为对LLM幻觉问题感兴趣的朋友提供有价值的资源,促进LLM的实际应用。”
技术人生黄勇
2024/07/19
7960
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
最近,来自CAIS、CMU、斯坦福、康奈尔、马里兰、宾大等机构的学者又有了令人震惊的发现——
新智元
2023/10/08
3180
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
就在刚刚,UCL、Cohere等机构的研究人员发现:在LLM执行推理任务时,竟存在着一种「程序性知识」。
新智元
2025/02/15
550
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略
2024年7月7号,OpenAI安全团队负责人,Lilian Weng分享了一篇博客介绍了LLM中幻觉的由来、检测和对抗策略,分享给大家,以下为翻译全文。
AgenticAI
2025/03/18
1460
OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略
分享10篇优秀论文,涉及LLM对齐、LLM评估、LLM隐私、RAG增强等热门话题!
紧跟技术发展趋势,快速了解NLP领域最新动态。今天继续给大家分享10篇最新论文,其中涉及大模型幻觉、大模型对齐、大模型剪枝、大模型隐私、大模型毒性、大模型评估、RAG能力增强、Transformer架构优化等热门研究方向。
ShuYini
2024/01/31
7890
分享10篇优秀论文,涉及LLM对齐、LLM评估、LLM隐私、RAG增强等热门话题!
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
最近,来自Technion、谷歌和苹果的研究人员发现,LLM「真实性」的信息集中在特定的token,而且并得均匀分布。
新智元
2025/02/14
870
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
ChatGPT一周岁啦!开源LLMs正在紧紧追赶吗?
自2022年底ChatGPT发布以来,其已经在人工智能的整个领域带来了翻天覆地的变化。通过对大型语言模型(LLM)进行指令微调,并从人类反馈中进行监督微调和强化学习,表明模型可以回答人类问题并在广泛的任务中遵循指令。在这一成功之后,对LLM的研究兴趣增强了,新的LLM在学术界和工业界频繁蓬勃发展。虽然非开源LLM(例如,OpenAI的GPT, Anthropic的Claude)通常优于它们的开源同行,但后者的进展很快。这对研究和商业都有至关重要的影响。在ChatGPT成立一周年之际,本文对这类LLMs进行了详尽的介绍。
zenRRan
2023/12/05
4760
ChatGPT一周岁啦!开源LLMs正在紧紧追赶吗?
Long-Context下LLM模型架构全面介绍
随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍的限制:当前许多LLM受资源限制,主要是在较短的文本上进行预训练,使它们对现实世界中常见的较长的上下文提示不太有效。本文对基于Transformer的LLM模型架构的进展进行了全面的介绍。
zenRRan
2023/11/29
2.1K0
Long-Context下LLM模型架构全面介绍
LLM 的幻觉到底是什么,有什么办法解决?
LLM 时常会出现一些神奇的现象—— 幻觉 Hallucination ,在 AI 领域,幻觉是指模型生成的信息可能 不真实 或 不准确 ,这是一个常见的问题,而 Truthfulness 指的是模型输出的 真实性 或者叫 可靠性 ,显然如果模型输出的真实性越高,那么出现幻觉的概率就是越低的。
NewBeeNLP
2024/02/28
1.5K0
LLM 的幻觉到底是什么,有什么办法解决?
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
威斯康星麦迪逊大学和谷歌的研究人员最近开发了一个名为ASPIRE的系统,可以让大模型对自己的输出给出评分。
新智元
2024/01/23
3990
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
【知识】 LLM中的Scaling Laws是什么?
近年来,随着大语言模型(LLM)的参数规模和训练数据量呈指数级增长,研究者发现模型性能与规模之间存在可预测的扩展规律(Scaling Laws)​。所谓Scaling Law,指的是模型性能(如测试集上的损失或准确率)如何随着模型参数数量、训练数据量以及计算量的增加而变化的经验性定律​。这一概念最初由OpenAI在2020年的开创性工作提出​。掌握Scaling Laws有助于我们在训练LLM时进行模型大小、数据规模和算力投入之间的权衡,指导训练方案的设计​。
小锋学长生活大爆炸
2025/04/09
3820
LLM Hallucinations:AI 的进化 or 技术缺陷?
众所周知,LLM(大型语言模型)的迅猛崛起无疑为人工智能领域带来了革命性的变革。这种先进的技术以其惊人的文本生成能力,在诸多领域展现出广阔的应用前景,为提升用户体验带来全新契机。
Luga Lee
2024/11/01
1240
LLM Hallucinations:AI 的进化 or 技术缺陷?
ChatRule—基于LLM挖掘KG中的逻辑规则
在本文中,我们提出了一个新的框架 ChatRule,提升LLM在知识图谱上挖掘逻辑规则 的能力。具体而言,该框架以基于 LLM 的规则生成器为起点,利用 KGs 的语义和结构信息 来促使 LLMs 生成逻辑规则。为了改进生成的规则,规则排名模块通过整合现有 KG中的事实 来估计规则的质量。最后,规则验证器利用 LLMs 的推理能力通过思维链验证排名规则的逻 辑正确性。ChatRule 在四个大规模 KG上进行了评估, 涉及不同的规则质量指标和下游任 务,展示了我们方法的有效性和可扩展性。
绿盟科技研究通讯
2024/05/17
6630
ChatRule—基于LLM挖掘KG中的逻辑规则
LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型
在模型训练过程中,数据及数据处理是最为重要的工作之一。在当前模型训练流程趋于成熟的情况下,数据集的好坏,是决定了该次训练能否成功的最关键因素。
汀丶人工智能
2024/05/26
4.4K0
LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
最近,谷歌DeepMind和斯坦福的研究人员发现:大模型在处理逻辑推理任务时,问题中信息呈现的顺序对模型的表现有着决定性的影响。
新智元
2024/02/26
1810
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
LLM 大语言模型定义以及关键技术术语认知
LLM(Large Language Models)是基于 Transformer 架构(可以理解为不同寻常的大脑)的深度神经网络,通过海量文本数据训练获得语言理解和生成能力。其核心特征包括:
山河已无恙
2025/03/03
1560
LLM 大语言模型定义以及关键技术术语认知
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。
deephub
2024/06/03
3260
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
全景解读 LLM 后训练技术
本文介绍了大语言模型的后训练技术,包括微调、强化学习和测试时扩展,探讨其挑战与未来方向,并提供实践指南。
一点人工一点智能
2025/03/20
1170
全景解读 LLM 后训练技术
goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性
LLMs(大型语言模型)能够记忆并重复它们的训练数据,这可能会带来隐私和版权风险。为了减轻记忆现象,论文作者引入了一种名为"goldfish loss"的微妙修改,在训练过程中,随机抽样的一部分标记被排除在损失计算之外。这些被舍弃的标记不会被模型记忆,从而防止模型完整复制训练集中的一整个标记序列。
deephub
2024/07/01
1270
goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性
同济大学发布最新检索增强(RAG)的LLM生成技术综述
摘要主要介绍了大型语言模型(LLMs)在实际应用中面临的挑战,比如幻觉、知识更新缓慢和答案缺乏透明度等问题,并提出了检索增强生成(Retrieval-Augmented Generation,RAG)作为一种解决方案。RAG通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性,减少模型产生的幻觉,尤其是在知识密集型任务中。
唐国梁Tommy
2023/12/21
17.1K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
推荐阅读
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
7960
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
3180
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
550
OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略
1460
分享10篇优秀论文,涉及LLM对齐、LLM评估、LLM隐私、RAG增强等热门话题!
7890
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
870
ChatGPT一周岁啦!开源LLMs正在紧紧追赶吗?
4760
Long-Context下LLM模型架构全面介绍
2.1K0
LLM 的幻觉到底是什么,有什么办法解决?
1.5K0
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
3990
【知识】 LLM中的Scaling Laws是什么?
3820
LLM Hallucinations:AI 的进化 or 技术缺陷?
1240
ChatRule—基于LLM挖掘KG中的逻辑规则
6630
LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型
4.4K0
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
1810
LLM 大语言模型定义以及关键技术术语认知
1560
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
3260
全景解读 LLM 后训练技术
1170
goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性
1270
同济大学发布最新检索增强(RAG)的LLM生成技术综述
17.1K0
相关推荐
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档