首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >英伟达用AI给自家纪录片配音,情绪节奏稳稳拿捏,不说根本听不出来

英伟达用AI给自家纪录片配音,情绪节奏稳稳拿捏,不说根本听不出来

作者头像
量子位
发布2023-03-01 14:44:34
发布2023-03-01 14:44:34
4970
举报
文章被收录于专栏:量子位量子位
鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI

先来听一小段音乐:

你能听出,这其实是AI唱的吗?

虽然日常和你对话的siri声音机械,还常常胡乱断句,但实际上,最新的技术进展显示,AI的语音合成能力已经可以说得上是以假乱真

比如英伟达,最近就发布了一个更懂节奏、更具感情的语音合成AI。

在英伟达的纪录片中,她是这样自我介绍的:

口齿清晰自不必说,这气息顿挫、情绪把控,播音员范儿够正不?

帧级控制合成语音

英伟达将在9月3日的语音技术顶会Interspeech 2021上展示该项目的最新成果。

不过,其背后的技术,此前就已经帮助自家数字人在SIGGRAPH Real-Time Live上摘下了最佳展示奖。

核心是名为RAD-TTS的语音合成方法。

这是一个并行的端到端TTS模型。与此前的并行方法不同,RAD-TTS将语音节奏作为一个单独的生成分布来建模。如此,在推理过程中,语音的持续时间就能被更好地控制。

从RAD-TTS的演示界面中也可以看出,用户可以在帧级别上控制合成语音的音调、持续时间和节奏力度。

研究人员还介绍,RAD-TTS既可以将任意文本转换成说话人的声音,也可以将一个说话人的声音(甚至是歌声)转换成另一个人的声音,就像这样:

也就是说,合成语音的制作人可以像指导配音演员一样去“指导”AI,让它学会哪个单词应该重点突出、节奏如何把控更符合创作基调等等。

机器语音能有多真实?

其实,不只是英伟达,此前,小冰也发布过超级自然语音技术

把一句人类的语音混进小冰的语音里,你能分辨到底哪一句来自真正的人类吗?

不过,小冰公司CEO李笛此前曾表示,AI的声音太接近真人,就很有可能被滥用。因此小冰禁止为普通个人训练声音。

但这样的技术,也正在通过电台、便利店等更多商业场景,走进人们的日常生活。

参考链接: [1]论文地址:https://openreview.net/forum?id=0NQwnnwAORi [2]https://blogs.nvidia.com/blog/2021/08/31/conversational-ai-research-speech-synthesis-interspeech/

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

「智能汽车」交流群招募中!

欢迎关注智能汽车、自动驾驶的小伙伴们加入社群,与行业大咖交流、切磋,不错过智能汽车行业发展&技术进展。加好友请务必备注您的姓名-公司-职位 哦~

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-09-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 帧级控制合成语音
  • 机器语音能有多真实?
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档