Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >HM、AV1、VTM编码器的主客观质量评价

HM、AV1、VTM编码器的主客观质量评价

作者头像
用户1324186
发布于 2019-12-06 04:43:24
发布于 2019-12-06 04:43:24
1.5K0
举报
文章被收录于专栏:媒矿工厂媒矿工厂

近年来视频编码标准的快速发展,推动着视频编码器的更新换代,而对于这些编码器的编码质量、编码效率等的评价仍不够充分。来自布里斯托大学的Fan Zhang在AOMedia 2019 Research Symposium上进行了题为“Evaluating Video Codecs Through Objective and Subjective Assessments”的演讲,分别对HM、AV1和VTM三种编码器进行了主客观质量评价。

Fan Zhang首先介绍了参与此次对比的三个编码器以及相关配置。本次测试使用的编码器分别为HM-16.18、VTM-4.01和AV1,其中AV1包含V0.1.0(2018.05.30)和V1.0.0(2019.10.01)这两个版本。编码配置尽量接近,其中I帧间隔为64,GOP大小为16,对于AV1还使用了一些推荐的或者最优的配置。另外,对于最新版本的AV1,由于测试时间受限,只进行了客观质量评价,而对于其他三者,均进行了主、客观质量评价。9个5秒、10比特位深、60帧率的4K视频序列被用于编码测试,其中3个序列是固定相机的画面,3个序列包含像水流、树叶等动态纹理,3个序列包含相机的运动。为了丰富测试场景,这9个序列还通过下采样等方法分别得到HD和HD-DO(动态优化)序列,并对每个不同的分辨率设置了多组目标码率。

接下来Fan Zhang展示了4个编码器在客观质量评价指标(PSNR和VMAF)下的分数,相对于HM,总体上均呈现出VTM编码效率(码率节省)大于AV1-V1.0.0大于AV1-V0.1.0大于HM。但是在主观质量上,却呈现出VTM大于HM大于AV1的趋势,在HD下尤为明显。Fan Zhang举了一个AV1编码造成失真的例子解释了这一结果。通过主观测试,也再次证明了VMAF指标相较于PSNR、SSIM等传统客观指标更接近主观MOS分,但是距离完美还有很长一段距离。

最后Fan Zhang展示了4个编码器的复杂度。AV1和VTM的复杂度都远远大于HM,但是AV1新版本的复杂度已经降低到原来的约三分之一,约为VTM的二分之一。而且本次测试也证明了动态优化后的视频对码率节省有相当大的帮助,尤其是基于学习的优化有较大潜力。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 媒矿工厂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【论文推荐】最新六篇自动问答相关论文—排序函数、文本摘要评估、信息抽取框架、层次递归编码器、半监督问答
【导读】既前两天推出十三篇自动问答(Question Answering)相关文章,专知内容组今天又推出六篇自动问答相关文章,为大家进行介绍,欢迎查看! 14. Training a Ranking Function for Open-Domain Question Answering(训练排序函数对开放式问题进行回答) ---- ---- 作者:Phu Mon Htut,Samuel R. Bowman,Kyunghyun Cho 机构:New York University 摘要:In recent y
WZEARW
2018/06/05
7590
自然语言处理学术速递[12.10]
【1】 Transferring BERT-like Transformers' Knowledge for Authorship Verification 标题:利用类BERTTransformer知识进行作者认证 链接:https://arxiv.org/abs/2112.05125
公众号-arXiv每日学术速递
2021/12/10
2980
自然语言处理学术速递[9.9]
【1】 NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task--Next Sentence Prediction 标题:NSP-BERT:一种通过原始预训练任务--下一句预测--的基于提示的零命中率学习者 链接:https://arxiv.org/abs/2109.03564
公众号-arXiv每日学术速递
2021/09/16
9260
自然语言处理学术速递[7.6]
【1】 Power Law Graph Transformer for Machine Translation and Representation Learning 标题:用于机器翻译和表示学习的幂律图转换器
公众号-arXiv每日学术速递
2021/07/27
8330
自然语言处理学术速递[12.15]
【1】 CoCo-BERT: Improving Video-Language Pre-training with Contrastive Cross-modal Matching and Denoising 标题:Coco-BERT:用对比跨模态匹配和去噪改进视频语言预训练 链接:https://arxiv.org/abs/2112.07515
公众号-arXiv每日学术速递
2021/12/17
9460
自然语言处理学术速递[12.22]
【1】 Voice Quality and Pitch Features in Transformer-Based Speech Recognition 标题:基于Transformer的语音识别中的音质和基音特征 链接:https://arxiv.org/abs/2112.11391
公众号-arXiv每日学术速递
2021/12/24
3450
AAAI 2020 提前看 | 三篇论文解读问答系统最新研究进展
在本篇提前看中,我们重点聚焦 AAAI 2020 中与问答系统(Q&A)相关的文章。问答系统是自然语言处理领域的一个重要研究方向,近年来各大国际会议、期刊都发表了大量与问答系统相关的研究成果,实际工业界中也有不少落地的应用场景,核心算法涉及机器学习、深度学习等知识。问答系统(Q&A)的主要研究点包括模型构建、对问题/答案编码、引入语义特征、引入强化学习、内容选择、问题类型建模、引入上下文信息以及实际应用场景问题解决等。在本次 AAAI2020 中,直接以「Question/Answer」作为题目的论文就有 40 余篇。本文选取了其中三篇进行详细讨论,内容涉及语义特征匹配、模型构建和医学场景应用等。
机器之心
2020/02/24
1.5K0
AAAI 2020 提前看 | 三篇论文解读问答系统最新研究进展
自然语言处理学术速递[12.23]
【1】 Trees in transformers: a theoretical analysis of the Transformer's ability to represent trees 标题:Transformer中的树:Transformer表示树能力的理论分析 链接:https://arxiv.org/abs/2112.11913
公众号-arXiv每日学术速递
2021/12/27
8200
自然语言处理学术速递[12.17]
【1】 Pushing the Limits of Rule Reasoning in Transformers through Natural Language Satisfiability 标题:通过自然语言可满足性突破Transformer规则推理的极限 链接:https://arxiv.org/abs/2112.09054
公众号-arXiv每日学术速递
2021/12/17
1.2K0
自然语言处理学术速递[12.7]
【1】 Transformer-based Korean Pretrained Language Models: A Survey on Three Years of Progress 标题:基于Transformer的韩语预训练语言模型:三年进展综述 链接:https://arxiv.org/abs/2112.03014
公众号-arXiv每日学术速递
2021/12/09
1.2K0
自然语言处理学术速递[6.29]
【1】 Efficient Dialogue State Tracking by Masked Hierarchical Transformer 标题:基于屏蔽分层变换器的高效对话状态跟踪
公众号-arXiv每日学术速递
2021/07/02
1.3K0
自然语言处理学术速递[12.16]
【1】 Evaluating Pretrained Transformer Models for Entity Linking in Task-Oriented Dialog 标题:在面向任务的对话框中评估用于实体链接的预训练Transformer模型 链接:https://arxiv.org/abs/2112.08327
公众号-arXiv每日学术速递
2021/12/17
8820
自然语言处理学术速递[6.18]
访问www.arxivdaily.com获取含摘要速递,涵盖CS|物理|数学|经济|统计|金融|生物|电气领域,更有搜索、收藏、发帖等功能!点击阅读原文即可访问 cs.CL 方向,今日共计32篇 Tr
公众号-arXiv每日学术速递
2021/07/02
7250
自然语言处理学术速递[10.19]
【1】 NormFormer: Improved Transformer Pretraining with Extra Normalization 标题:NormFormer:改进的Transformer预训练和额外归一化 链接:https://arxiv.org/abs/2110.09456
公众号-arXiv每日学术速递
2021/10/21
1.5K0
自然语言处理学术速递[12.9]
【1】 Everything at Once -- Multi-modal Fusion Transformer for Video Retrieval 标题:一举多得--用于视频检索的多模式融合转换器 链接:https://arxiv.org/abs/2112.04446
公众号-arXiv每日学术速递
2021/12/09
4880
人工智能学术速递[9.13]
【1】 PWPAE: An Ensemble Framework for Concept Drift Adaptation in IoT Data Streams 标题:PWPAE:物联网数据流概念漂移自适应集成框架 链接:https://arxiv.org/abs/2109.05013
公众号-arXiv每日学术速递
2021/09/16
6630
自然语言处理学术速递[6.30]
【1】 Hate speech detection using static BERT embeddings 标题:基于静电BERT嵌入的仇恨语音检测
公众号-arXiv每日学术速递
2021/07/02
7880
自然语言处理学术速递[10.18]
【1】 StreaMulT: Streaming Multimodal Transformer for Heterogeneous and Arbitrary Long Sequential Data 标题:StreaMulT:面向异构任意长序列数据的流式多模式转换器 链接:https://arxiv.org/abs/2110.08021
公众号-arXiv每日学术速递
2021/10/21
1.3K0
自然语言处理学术速递[10.18]
自然语言处理学术速递[12.14]
【1】 Dependency Learning for Legal Judgment Prediction with a Unified Text-to-Text Transformer 标题:使用统一文本到文本转换器的法律判决预测的依赖学习 链接:https://arxiv.org/abs/2112.06370
公众号-arXiv每日学术速递
2021/12/17
7310
人工智能学术速递[12.17]
【1】 HODOR: High-level Object Descriptors for Object Re-segmentation in Video Learned from Static Images 标题:HOODOR:基于静电学习的视频对象再分割高级对象描述符 链接:https://arxiv.org/abs/2112.09131
公众号-arXiv每日学术速递
2021/12/17
1.3K0
相关推荐
【论文推荐】最新六篇自动问答相关论文—排序函数、文本摘要评估、信息抽取框架、层次递归编码器、半监督问答
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档