首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    重构出版:语音交互技术的冲击与机遇

    重构出版:语音交互技术的冲击与机遇 1 摘要:语音交互技术是人工智能技术的重要分支,包括语音识别、语音合成和语义理解三个部分。语音交互技术不仅从出版实务上重构了出版业,而且重构了出版业的核心概念。出版机构面对语音交互技术的冲击要主动培养音频编辑人才,提前布局市场,在下一次知识服务转型的风口占得先机。 关键词:人工智能;语音交互技术;重构;出版业 2 人工智能将对人类社会产生重大影响,而语音是人工智能技术重要应用领域之一。近年来语音交互技术日趋成熟,数字出版领域有声读物快速发展,市场不断扩大。“国内已经先

    011

    最佳实践 | 用腾讯云AI语音识别零基础实现小程序语音输入法

    先回顾下,生活、工作中你使用过哪些语音识别相关的产品或者服务? 培训/考试相关的小程序,使用语音识别来判断回答是否正确; 英语口语练习的小程序,使用语音识别来打分; 你画我猜类的小程序,使用语音识别来判断是否猜对; 活动营销类的小程序,比如口令识别、口令红包等; 直播/短视频类小程序,使用语音识别生成字幕; 客服类的小程序,使用语音识别、语音合成来实现智能客服。 可以看到,语音识别的应用场景越来越广泛,我们在做小程序开发的时候,也经常会遇到使用语音识别的场景;其中语音输入法是非常基础的功能场景,如果能实

    03

    用机器学习解码一颗“失声”15年的大脑,让它“开口说话”

    大数据文摘作品 作者:Miggy 对于瘫痪患者来说,最大的苦楚来自无法与外界进行沟通。虽然大脑依然活跃并且希望表达,但是无法驱动发声肌肉,会让这类患者的语言机制逐渐蜕化。 来自加州大学旧金山分校神经外科主任Edward Chang正在为失去说话能力的人开发脑机接口技术。他的实验室致力于解码与声道命令相关的大脑信号,并通过神经植入物,将大脑的语言机能,通过计算机输出出来。该项目不仅需要当今最好的神经技术硬件,还需要强大的机器学习模型。 最近,这一技术也取得了长足的进步,让一位因瘫痪“失声”15年的患者利用电脑

    02

    如何迈出与腾讯产品合作的第一步?|腾讯产业加速器-毕加所·案例实战首期

    “我应该如何与腾讯合作?” “我需要在哪里找到合作?” 随着腾讯产业生态队伍的不断丰富,在与合作伙伴接触过程中,产品合作方法、合作流程、合作渠道等具体内容成为合作伙伴的共性问题。 近期,针对腾讯与合作伙伴的业务合作需求,腾讯毕加所推出案例实战系列分享会,致力于复盘研讨腾讯与腾讯产业加速器成员合作的优秀案例,通过多维度解读合作案例,为合作伙伴提供行之有效的实战经验;同时定期发布腾讯内部业务需求,助力加速器成员企业与腾讯打造更多落地案例。 6月2日,腾讯毕加所·案例实战首期分享在腾讯会议举办。追一科技CE

    03

    Android使用webrtc实现检测用户是否在说话

    我们在Android应用做语音识别的时候,一般是用户唤醒之后开始说话。当用户超过一定的时候没有说话,就停止录音,并把录音发送到语音识别服务器,获取语音识别结果。本教程就是解决如何检测用户是否停止说话,我们使用的是WebRTC架构的源代码中的vad代码实现的。 VAD算法全称是Voice Activity Detection,该算法的作用是检测是否是人的语音,使用范围极广,降噪,语音识别等领域都需要有vad检测。webrtc的vad检测原理是根据人声的频谱范围,把输入的频谱分成六个子带:80Hz——250Hz,250Hz——500Hz,500Hz——1K,1K——2K,2K——3K,3K——4K。分别计算这六个子带的能量。然后使用高斯模型的概率密度函数做运算,得出一个对数似然比函数。对数似然比分为全局和局部,全局是六个子带之加权之和,而局部是指每一个子带则是局部,所以语音判决会先判断子带,子带判断没有时会判断全局,只要有一个通过认为是语音。

    04

    Nature子刊 | 加州理工学院利用脑机接口实时解码内心言语

    语音脑机接口(BMIs)将大脑神经信号转换为单词或音频输出,能够让因疾病或受伤而失去语言能力的人能够进行交流。虽然在语音、尝试和模拟语音解码方面取得了重要进展,但内部语音解码的正确率很低,尚未实现实际运用。值得注意的是,目前还不清楚大脑的哪些区域可以被解码。在本文中,两名四肢瘫痪患者在边缘上回(SMG)和初级躯体感觉皮层(S1)植入微电极阵列,他们对6个单词和2个假单词进行内部和发声语音。在两名参与者中,我们发现在SMG的单个神经元和群体水平上,内部和发声言语的显著神经表征。从SMG记录的人口活动,内部口语和发声单词明显可解码。在离线分析中,每个参与者的平均解码准确率分别为55%和24%(概率水平为12.5%),在在线内部语音BMI任务中,我们的平均准确率分别为79%和23%。在参与者1中发现了内部言语、单词阅读和发声语音过程之间共享神经表征的证据。SMG代表单词和伪词,为语音编码提供了证据。此外,我们的解码器通过多种内部语音策略(听觉想象/视觉想象)提高了分类准确度。在两个参与者的实验中,S1的活动被发声调节,而不是内部言语调节,这表明在内部言语产生过程中没有发生声道的发音运动。这项工作代表了一个高性能的内部语音BMI的概念证明。

    01

    Neuroscout:可推广和重复利用的fMRI研究统一平台

    功能磁共振成像 (fMRI) 已经彻底改变了认知神经科学,但方法上的障碍限制了研究 结果的普遍性。Neuroscout,一个端到端分析自然功能磁共振成像数据 的平台, 旨在促进稳健和普遍化的研究推广。Neuroscout利用最先进的机器学习模型来自动注释来自使用自然刺激的数十个功能磁共振成像研究中的刺激—— 比如电影和叙事——使研究人员能够轻松地跨多个生态有效的数据集测试神经科学假设。此外,Neuroscout建立在开放工具和标准的强大生态系统上,提供易于使用的分析构建器和全自动执行引擎, 以减少可重复研究的负担。通过一系列的元分析案例研究,验证了自动特征提取方法,并证明了其有支持更稳健的功能磁共振成像研究的潜力。由于其易于使用和高度自动化,Neuroscout克服了自然分析中常见出现的建模问题,并易于在数据集内和跨数据集进行规模分析,可以自利用一般的功能磁共振成像研究。

    04

    Linux下利用python实现语音识别详细教程

    语音识别源于 20 世纪 50 年代早期在贝尔实验室所做的研究。早期语音识别系统仅能识别单个讲话者以及只有约十几个单词的词汇量。现代语音识别系统已经取得了很大进步,可以识别多个讲话者,并且拥有识别多种语言的庞大词汇表。 语音识别的首要部分当然是语音。通过麦克风,语音便从物理声音被转换为电信号,然后通过模数转换器转换为数据。一旦被数字化,就可适用若干种模型,将音频转录为文本。 大多数现代语音识别系统都依赖于隐马尔可夫模型(HMM)。其工作原理为:语音信号在非常短的时间尺度上(比如 10 毫秒)可被近似为静止过程,即一个其统计特性不随时间变化的过程。 许多现代语音识别系统会在 HMM 识别之前使用神经网络,通过特征变换和降维的技术来简化语音信号。也可以使用语音活动检测器(VAD)将音频信号减少到可能仅包含语音的部分。 幸运的是,对于 Python 使用者而言,一些语音识别服务可通过 API 在线使用,且其中大部分也提供了 Python SDK。

    05
    领券