前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >20年后,我们这样看春晚

20年后,我们这样看春晚

作者头像
腾讯云音视频
发布于 2020-02-09 14:10:21
发布于 2020-02-09 14:10:21
2.6K0
举报
文章被收录于专栏:音视频咖音视频咖

小时候,每个除夕夜一家人都会守在小小的彩电之前看春晚。

20年后,小彩电变成大大的液晶显示屏,一家人看着高清直播参与现场互动。

随着视频产品、技术、生态不断的升级与发展

腾讯视频云带来的改变,其实还有很多……

左滑回到现在←

腾讯云助力下,2019年央视春晚首次进行4K超高清直播,其中腾讯云自研极速高清转码技术降低了30%-40%的带宽消耗。

左滑回到现在←

“一部手机游云南”依托腾讯云慢直播、点播、VR技术,通过app、小程序24小时不间断地向观众展示云南景区风光。

左滑回到现在←

2019年,腾讯云发布了云游戏端游及手游解决方案,实现云游戏多端无缝接入,低延时高画质、智能码率控制保障玩家游戏体验。

左滑回到现在←

腾讯云为国庆70周年阅兵直播提供全程技术支撑,并基于AI技术对直播进行灵活剪辑,呈现更好的直播效果。

左滑回到现在←

腾讯云为2019英雄联盟全球总决赛提供全链路护航并承载全网90%流量。同时,腾讯云持续探索直播商业化,推出一键互动广告、选手第一视角流观赛,为直播行业客户持续贡献动能。

左滑回到现在←

腾讯云服务了国内90%的电商企业,2019年双11期间,通过腾讯云移动直播、商业直播,依托微信生态商业模式,让直播购物更方便快捷。

左滑回到现在←

腾讯云为2019中国体育文化博览会、中国体育旅游博览会提供直播营销服务,最大化品牌宣传效果,让体育爱好者感受当代体育文化的魅力。

左滑回到现在←

腾讯云护航B站跨年直播,全国各地都能流畅高清的共赏这场“2019最后的夜”。目前,腾讯云在全球超过50个国家、覆盖了1300+节点,可助力各大晚会直播。

新世纪20年

腾讯云一直在努力

用技术让这个世界变得更美好

    腾讯视频云技术小课堂   

➢ 韩国棒球联赛直播期间,腾讯云推出8K超高清5G直播编码服务。基于最新5G网络,针对高帧率(60fps+)、高码率(10Mbps+)及4K/8K直播、点播业务场景,对视频编码算法升级。在体育类赛事中,能做到无论直播画面无论在基本状态还是放大状态下,都能支持8K/16K高品质。

➢ 莫斯科MSU大会上,腾讯云内部开源协同的V265编码器大放光彩,一举拿下PSNR/VMAF两项指标第一、SSIM指标第二的出色成绩。腾讯V265编码器目前已支持腾讯云上以极速高清为代表的包括视频编辑、视频转码等各种视频相关业务,让用户在低码率下享受与高码率相同的画质体验。

➢ Techo大会上,腾讯云展现了在AV1和技术开源方面的成绩。腾讯云联合多媒体实验室宣布,直播、点播、MPS全线产品支持AV1,未来将继续为AOMedia、FFmpeg、SRT等开源机构做贡献。

➢ 腾讯会议于12月正式发布,通过腾讯云实时音视频TRTC支持手机、平板、PC、小程序、Mac全平台的音视频会议云服务;基于参考帧动态规划编码方案;音频接收端网络自适应和数据补偿自恢复技术;QOS新型流控,自适应各种网络类型等关键技术,做到在70%网络丢包的弱网环境下仍然能够保障自然流畅的会议体验。

➢ 腾讯云快直播基于WebRTC标准,在浏览器上无需安装插件即可播放。针对直播场景,对秒开、卡顿率等关键指标进行了优化,播放延时由传统直播中的3-5秒延时降低到1s内。广泛应用于电商直播、电竞直播、在线教育互动课堂、体育赛事等领域。

美颜特效  支持H.265/AV1/AVS2解码

实时万人大房间

腾讯微剪  高并发推流

智能识别  极速高清

智能标签

直播技术支持  主播合作

AI一键互动广告  专业直播运营

4K/8K  远程制作中心  第一视角流

毫秒级超低延迟播放

CDN覆盖50+国家  x-P2P

CDN节点超1300+

AV1 H.265 AVS2编码算法升级

TRTC  技术开源

商业直播

播放器SDK

视频处理  短视频SDK

互动直播       移动直播SDK

实时音视频

慢直播  云点播

云直播  快直播

直播营销        5G

腾讯明眸

海内外独家源站

云导播台

腾讯智眸

云游戏       腾讯云剪

期待下一个20年!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯云音视频 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
FLAT——中文NER该怎么做
「Key insight」: 本文在Lattice LSTM(ACL 2018)[1]的基础上作出了两方面的改进:
NewBeeNLP
2021/03/03
1.8K0
FLAT——中文NER该怎么做
NAACL'22 | 华为提出中文NER领域最新SOTA
每天给你送来NLP技术干货! ---- 来自:克鲁斯卡 Delving Deep into Regularity: A Simple but Effective Method for Chinese Named Entity Recognition Accepted at NAACL 2022 Findings 4月7日,NAACL 2022公布论文入选名单,由华为云语音语义创新Lab多名研究者撰写的论文被NAACL 2022 Findings接收,趁热和大家一起学习一下 文章大纲 Abstract
zenRRan
2022/09/14
2.3K0
NAACL'22 | 华为提出中文NER领域最新SOTA
中文NER的那些事儿5. Transformer相对位置编码&TENER代码实现
这一章我们主要关注transformer在序列标注任务上的应用,作为2017年后最热的模型结构之一,在序列标注任务上原生transformer的表现并不尽如人意,效果比bilstm还要差不少,这背后有
风雨中的小七
2021/11/19
1.2K0
命名实体识别新SOTA:改进Transformer模型
TENER: Adapting Transformer Encoder for Name Entity Recognition
AI科技评论
2019/11/28
2.4K0
命名实体识别新SOTA:改进Transformer模型
中文NER的那些事儿5. Transformer相对位置编码&TENER代码实现
这一章我们主要关注transformer在序列标注任务上的应用,作为2017年后最热的模型结构之一,在序列标注任务上原生transformer的表现并不尽如人意,效果比bilstm还要差不少,这背后有
用户4268038
2021/11/18
5390
【技术白皮书】第三章:文字表格信息抽取模型介绍——实体抽取方法:NER模型(上)
深度学习是一个由多个处理层组成的机器学习领域,用于学习具有多个抽象层次的数据表示。典型的层次是人工神经网络,由前向传递和后向传递组成。正向传递计算来自前一层的输入的加权和,并通过非线性函数传递结果。向后传递是通过导数链规则计算目标函数相对于多层模块堆栈权重的梯度。深度学习的关键优势在于表示学习的能力以及向量表示和神经处理赋予的语义合成能力。这允许机器输入原始数据,并自动发现分类或检测所需的潜在表示和处理。
合合技术团队
2022/08/17
1.3K0
【技术白皮书】第三章:文字表格信息抽取模型介绍——实体抽取方法:NER模型(上)
Transformers Assemble(PART III)
第四篇也非常有趣提出将独立的词向量替换成自变量为位置的函数,引入了复数空间综合了词向量和位置向量」
NewBeeNLP
2020/08/26
6140
Transformers Assemble(PART III)
【Pre-Training】关于 Transformer 那些的你不知道的事
本博客 主要 是本人在学习 Transformer 时的「所遇、所思、所解」,通过以 「十六连弹」 的方式帮助大家更好的理解 该问题。
阿泽 Crz
2020/07/29
9100
【Pre-Training】关于 Transformer 那些的你不知道的事
【论文解读】IJCAI2019: 面向中文NER 基于lexicon rethinking的CNN模型
论文标题:CNN-Based Chinese NER with Lexicon Rethinking
zenRRan
2020/03/06
2K0
【论文解读】IJCAI2019: 面向中文NER  基于lexicon rethinking的CNN模型
中文NER的那些事儿3. SoftLexicon等词汇增强详解&代码实现
前两章我们分别介绍了NER的基线模型Bert-Bilstm-crf, 以及多任务和对抗学习在解决词边界和跨领域迁移的解决方案。这一章我们就词汇增强这个中文NER的核心问题之一来看看都有哪些解决方案。以下预测结果和代码详见Github-DSXiangLi/ChineseNER
风雨中的小七
2021/07/08
2.9K2
中文NER的那些事儿3. SoftLexicon等词汇增强详解&代码实现
一文读懂 Transformer 神经网络模型
自从最新的大型语言模型(LLaM)的发布,例如 OpenAI 的 GPT 系列、开源模型 Bloom 以及谷歌发布的 LaMDA 等,Transformer 模型已经展现出了其巨大的潜力,并成为深度学习领域的前沿架构楷模。
Luga Lee
2023/09/22
41.7K1
一文读懂 Transformer 神经网络模型
NeurIPS 2022 | 基于Transformer的「中文命名实体识别(NER)」新模型--NFLAT
 近年来,FLAT-lattice Transformer在中文命名实体识别(NER)中取得了巨大成功。然而,当处理较长的文本时,该方法会显著增加自注意模块的内存和计算成本。为此本文提出一种新的词汇增强方法InterFormer,实现NFLAT,该方法内存用量可减少50%,且实验结果优于最先进的character-word混合模型。
ShuYini
2022/12/06
1.8K0
NeurIPS 2022 | 基于Transformer的「中文命名实体识别(NER)」新模型--NFLAT
NER的过去、现在和未来综述-现在
命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。
百川AI
2021/10/25
3K0
NER的过去、现在和未来综述-现在
A Survey of Transformer 一篇Transformer综述(下)
事实上注意力矩阵的秩是小于序列长度的,而序列特别短的时候,会造成over-parameterization,甚至过拟合。
BBuf
2021/07/01
1.1K0
A Survey of Transformer 一篇Transformer综述(下)
【Pre-Training】Transformer-XL:比 Transformer 强一点
今天学习的是谷歌大脑的同学和 CMU 的同学于 2019 年联合出品的论文《Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context》,目前被引次数超 200 次。
阿泽 Crz
2020/07/21
7230
【NLP】XLNet详解
BERT本身很有效,但它也存在一些问题,比如不能用于生成、以及训练数据和测试数据的不一致(Discrepancy)。在本文中,我们重点介绍比BERT更强大的预训练模型XLNet,它为了达到真正的双向学习,采用了Permutation语言模型、以及使用了双流自注意力机制,并结合了Transformer-XL的相对位置编码。
yuquanle
2020/03/13
1.4K0
【NLP】浅谈 Transformer-based 模型中的位置表示
本文小结:本文主要对原始 Transformer[1]、RPR[2]以及 Transformer-XL[3] 中使用的位置表示方法,进行详细介绍。从最初的绝对位置编码,与单词嵌入相加作为第一层的输入,再到 RPR 提出直接在注意力分数的计算中引入相对位置信息,并学习相对距离的表示矩阵(长度固定),再到 Transformer-XL 中引入偏置信息,并重新使用 Transformer 中的编码公式生成相对距离的表示矩阵,使长度可泛化。
zenRRan
2019/11/19
1.4K0
【NLP】浅谈 Transformer-based 模型中的位置表示
万字长文带你入门Transformer
Transformer在许多的人工智能领域,如自然语言处理(Natural Language Processing, NLP)、计算机视觉(Computer Vision, CV)和语音处理(Speech Processing, SP)取得了巨大的成功。因此,自然而然的也吸引了许多工业界和学术界的研究人员的兴趣。到目前为止,已经提出了大量基于Transformer的相关工作和综述。本文基于邱锡鹏[1]老师团队近日所发表的一篇综述[2]为基础,详细的解读Transformer的来龙去脉,同时为大家介绍近期一些相关工作,中间也会穿插一些笔者的见解。最后,本文也将列出一些可探索的未来研究方向,希望能给予读者一些启发。
AIWalker
2021/07/05
2.3K0
万字长文带你入门Transformer
从机器翻译到阅读理解,一文盘点PaddlePaddle官方九大NLP模型
自然语言处理(NLP)主要是研究实现人与计算机之间用自然语言进行有效通信的各种理论和方法。基于神经网络的深度学习技术具有强大的表达能力、端到端解决问题的能力,因而在NLP任务的应用上越来越广泛和有效。
量子位
2019/04/22
7600
从机器翻译到阅读理解,一文盘点PaddlePaddle官方九大NLP模型
【技术白皮书】第三章文本信息抽取模型介绍——实体抽取方法:NER模型(下)
新加坡科技设计大学的研究者2018年在论文《Chinese NER Using Lattice LSTM》中提出了新型中文命名实体地识别方法Lattice LSTM。
合合技术团队
2022/08/18
1.1K0
【技术白皮书】第三章文本信息抽取模型介绍——实体抽取方法:NER模型(下)
推荐阅读
相关推荐
FLAT——中文NER该怎么做
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档