前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >TensorFlow和Pytorch中的音频增强

TensorFlow和Pytorch中的音频增强

作者头像
deephub
发布于 2022-04-14 04:25:28
发布于 2022-04-14 04:25:28
85500
代码可运行
举报
文章被收录于专栏:DeepHub IMBADeepHub IMBA
运行总次数:0
代码可运行

对于图像相关的任务,对图像进行旋转、模糊或调整大小是常见的数据增强的方法。因为图像的自身属性与其他数据类型数据增强相比,图像的数据增强是非常直观的,我们只需要查看图像就可以看到特定图像是如何转换的,并且使用肉眼就能对效果有一个初步的评判结果。尽管增强在图像域中很常见,但在其他的领域中也是可以进行数据增强的操作的,本篇文章将介绍音频方向的数据增强方法。

在这篇文章中,将介绍如何将增强应用到 TensorFlow 中的数据集的两种方法。第一种方式直接修改数据;第二种方式是在网络的前向传播期间这样做的。除此以外我们还会介绍使用torchaudio的内置方法实现与TF相同的功能。

直接音频增强

首先需要生成一个人工音频数据集。我们不需要加载预先存在的数据集,而是根据需要重复 librosa 库中的一个样本:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import librosa
import tensorflow as tf

def build_artificial_dataset(num_samples: int):
    data = []
    sampling_rates = []

    for i in range(num_samples):
        y, sr = librosa.load(librosa.ex('nutcracker'))
        data.append(y)
        sampling_rates.append(sr)
    features_dataset = tf.data.Dataset.from_tensor_slices(data)
    labels_dataset = tf.data.Dataset.from_tensor_slices(sampling_rates)
    dataset = tf.data.Dataset.zip((features_dataset, labels_dataset))

    return dataset

ds = build_artificial_dataset(10)

在此过程中创建了一个 Dataset 对象,我们也可以使用纯 NumPy 数组这个可以根据实际需求选择。

现在小数据集已经可以使用,可以开始应用增强了。对于这一步,为了简单起见,本文中使用 audiomentations 库,我们只使用三个增强方式, PitchShift、Shift 和 ApplyGaussianNoise。前两个移动音高(PitchShift)和数据(Shift,可以认为是滚动数据;例如,狗的叫声将移动 + 5 秒)。最后一次转换使信号更嘈杂,增加了神经网络的挑战。接下来,将所有三个增强功能组合到一个管道中:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from audiomentations import Compose, AddGaussianNoise, PitchShift, Shift

augmentations_pipeline = Compose(
    [
        AddGaussianNoise(min_amplitude=0.001, max_amplitude=0.015, p=0.5),
        PitchShift(min_semitones=-4, max_semitones=4, p=0.5),
        Shift(min_fraction=-0.5, max_fraction=0.5, p=0.5),
    ]
)

在输入数据之前,必须编写一些额外的代码。这因为我们正在使用一个 Dataset 对象,这些代码告诉 TensorFlow 临时将张量转换为 NumPy 数组,然后再输入到数据增强的处理流程中:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def apply_pipeline(y, sr):
    shifted = augmentations_pipeline(y, sr)
    return shifted


@tf.function
def tf_apply_pipeline(feature, sr, ):
    """
    Applies the augmentation pipeline to audio files
    @param y: audio data
    @param sr: sampling rate
    @return: augmented audio data
    """
    augmented_feature = tf.numpy_function(
        apply_pipeline, inp=[feature, sr], Tout=tf.float32, name="apply_pipeline"
    )

    return augmented_feature, sr


def augment_audio_dataset(dataset: tf.data.Dataset):
    dataset = dataset.map(tf_apply_pipeline)

    return dataset

有了这些辅助函数,就可以扩充我们的数据集了。最后,还需要再末尾添加维度来添加一个维度,这会将单个音频样本从 (num_data_point,) 转换为 (num_data_points, 1),表明我们有单声道音频:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ds = augment_audio_dataset(ds)
ds = ds.map(lambda y, sr: (tf.expand_dims(y, axis=-1), sr))

这样就完成了直接的音频数据增强

前向传播期间进行音频增强

上面的方式相比,在网络中增加音频数据会将计算负载放在前向传递上。

为了达到这个目的,这里使用提供自定义 TensorFlow 层的 kapre 库。我们使用 MelSpectrogram 层,它接受原始(即未修改的)音频数据并在 GPU 上计算 Mel 频谱图。

虽然与数据增强没有直接关系,但这有两个好处:

1、我们可以在例如超参数搜索期间优化频谱图生成的参数,从而无需重复将音频生成频谱图。

2、转换直接在 GPU 上进行,因此在原始转换速度和设备内存放置方面都会更快。

首先加载由 kapre 库提供的音频层。这些层获取原始音频数据并计算频谱图表示:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import kapre

input_layer = tf.keras.layers.Input(shape=input_shape, dtype=tf.float32)

melspectrogram = kapre.composed.get_melspectrogram_layer(
    n_fft=1024,
    return_decibel=True,
    n_mels=256,
    input_data_format='channels_last',
    output_data_format='channels_last')(input_layer)

然后,我们从 spec-augment 包中添加一个增强层。这个包实现了 SpecAugment 论文。[1],它掩盖了频谱图的一部分。掩蔽混淆了神经网络所需的信息,增加了学习的效果。这种修改迫使网络关注其他特征,从而扩展其泛化到看不见的数据的能力:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from spec_augment import SpecAugment

spec_augment = SpecAugment(freq_mask_param=27,  # F in paper
                           time_mask_param=100,  # T in paper
                           n_freq_mask=1,  # mF in paper
                           n_time_mask=2,  # mT in paper
                           mask_value=-1, )(melspectrogram)

最后,对于我们的案例,添加了一个未经训练的残差网络,其中包含任意十个类来将数据分类:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
spec_augment = tf.keras.applications.resnet_v2.preprocess_input(spec_augment)
core = tf.keras.applications.resnet_v2.ResNet152V2(
        input_tensor=spec_augment,
        include_top=False,
        pooling="avg",
        weights=None,
    )
core = core.output

output = tf.keras.layers.Dense(units=10)(core)

resnet_model = tf.keras.Model(inputs=[input_layer], outputs=[output], name="audio_model")

这样我们就有了一个深度神经网络,可以在前向传播期间增强音频数据。

torchaudio

上面介绍的都是tf的方法,那么对于pytorch我们怎么办?可以直接使用官方提供的torchaudio包

torchaudio 实现了TimeStrech, TimeMaskingFrequencyMasking.三种方式,我们看看官方给的代码

TimeStrech:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
spec = get_spectrogram(power=None)
strech = T.TimeStretch()

rate = 1.2
spec_ = strech(spec, rate)
plot_spectrogram(spec_[0].abs(), title=f"Stretched x{rate}", aspect='equal', xmax=304)

plot_spectrogram(spec[0].abs(), title="Original", aspect='equal', xmax=304)

rate = 0.9
spec_ = strech(spec, rate)
plot_spectrogram(spec_[0].abs(), title=f"Stretched x{rate}", aspect='equal', xmax=304)

TimeMasking:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
torch.random.manual_seed(4)

spec = get_spectrogram()
plot_spectrogram(spec[0], title="Original")

masking = T.TimeMasking(time_mask_param=80)
spec = masking(spec)

plot_spectrogram(spec[0], title="Masked along time axis")

FrequencyMasking:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
torch.random.manual_seed(4)

spec = get_spectrogram()
plot_spectrogram(spec[0], title="Original")

masking = T.FrequencyMasking(freq_mask_param=80)
spec = masking(spec)

plot_spectrogram(spec[0], title="Masked along frequency axis")

总结

在这篇博文中,我们介绍了2个主流深度学习框架的音频增强的方法,所以如果你是TF的爱好者,可以使用我们介绍的两种方法进行测试,如果你是pytorch的爱好者,直接使用官方的torchaudio包就可以了。

引用

[1] Park et al., Specaugment: A simple data augmentation method for automatic speech recognition, 2019, Proc. Interspeech 2019

https://ai.googleblog.com/2019/04/specaugment-new-data-augmentation.html

作者:Pascal Janetzky

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-03-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DeepHub IMBA 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
TensorFlow和Pytorch中的音频增强
来源:Deephub Imba本文约2100字,建议阅读9分钟本文将介绍如何将增强应用到 TensorFlow 中的数据集的两种方法。 对于图像相关的任务,对图像进行旋转、模糊或调整大小是常见的数据增强的方法。因为图像的自身属性与其他数据类型数据增强相比,图像的数据增强是非常直观的,我们只需要查看图像就可以看到特定图像是如何转换的,并且使用肉眼就能对效果有一个初步的评判结果。尽管增强在图像域中很常见,但在其他的领域中也是可以进行数据增强的操作的,本篇文章将介绍音频方向的数据增强方法。 在这篇文章中,将介绍
数据派THU
2022/04/11
1.2K0
TensorFlow和Pytorch中的音频增强
使用深度学习进行音频分类的端到端示例和解释
声音分类是音频深度学习中应用最广泛的方法之一。它包括学习对声音进行分类并预测声音的类别。这类问题可以应用到许多实际场景中,例如,对音乐片段进行分类以识别音乐类型,或通过一组扬声器对短话语进行分类以根据声音识别说话人。
deephub
2021/03/25
1.3K0
使用深度学习进行音频分类的端到端示例和解释
基于Tensorflow实现声音分类
本章我们来介绍如何使用Tensorflow训练一个区分不同音频的分类模型,例如你有这样一个需求,需要根据不同的鸟叫声识别是什么种类的鸟,这时你就可以使用这个方法来实现你的需求了。话不多说,来干。
夜雨飘零
2020/05/01
4K1
使用Tensorflow实现声纹识别
本章介绍如何使用Tensorflow实现简单的声纹识别模型,首先你需要熟悉音频分类,没有了解的可以查看这篇文章《基于Tensorflow实现声音分类》。基于这个知识基础之上,我们训练一个声纹识别模型,通过这个模型我们可以识别说话的人是谁,可以应用在一些需要音频验证的项目。
夜雨飘零
2020/06/02
6K0
基于Pytorch实现的声音分类
本章我们来介绍如何使用Pytorch训练一个区分不同音频的分类模型,例如你有这样一个需求,需要根据不同的鸟叫声识别是什么种类的鸟,这时你就可以使用这个方法来实现你的需求了。
夜雨飘零
2021/12/07
2.7K0
基于Pytorch实现的EcapaTdnn声纹识别模型
本项目使用了EcapaTdnn模型实现的声纹识别,不排除以后会支持更多模型,同时本项目也支持了多种数据预处理方法,损失函数参考了人脸识别项目的做法PaddlePaddle-MobileFaceNets ,使用了ArcFace Loss,ArcFace loss:Additive Angular Margin Loss(加性角度间隔损失函数),对特征向量和权重归一化,对θ加上角度间隔m,角度间隔比余弦间隔在对角度的影响更加直接。
夜雨飘零
2022/05/10
3K0
基于Pytorch实现的EcapaTdnn声纹识别模型
利用 AssemblyAI 在 PyTorch 中建立端到端的语音识别模型
这篇文章是由AssemblyAI的机器学习研究工程师Michael Nguyen撰写的。AssemblyAI使用Comet记录、可视化和了解模型开发流程。
AI科技大本营
2020/06/16
1.6K0
音频数据建模全流程代码示例:通过讲话人的声音进行年龄预测
大多数人都熟悉如何在图像、文本或表格数据上运行数据科学项目。但处理音频数据的样例非常的少见。在本文中,将介绍如何在机器学习的帮助下准备、探索和分析音频数据。简而言之:与其他的形式(例如文本或图像)类似我们需要将音频数据转换为机器可识别的格式。
deephub
2022/03/12
1.9K0
音频数据建模全流程代码示例:通过讲话人的声音进行年龄预测
使用 FastAI 和即时频率变换进行音频分类
目前深度学习模型能处理许多不同类型的问题,对于一些教程或框架用图像分类举例是一种流行的做法,常常作为类似“hello, world” 那样的引例。FastAI 是一个构建在 PyTorch 之上的高级库,用这个库进行图像分类非常容易,其中有一个仅用四行代码就可训练精准模型的例子。随着v1版的发布,该版本中带有一个data_block的API,它允许用户灵活地简化数据加载过程。今年夏天我参加了Kaggle举办的Freesound General-Purpose Audio Tagging 竞赛,后来我决定调整其中一些代码,利用fastai的便利做音频分类。本文将简要介绍如何用Python处理音频文件,然后给出创建频谱图像(spectrogram images)的一些背景知识,示范一下如何在事先不生成图像的情况下使用预训练图像模型。
AI研习社
2019/05/15
1.9K0
基于Pytorch实现的语音情感识别
在语音情感识别中,我首先考虑的是语音的数据预处理,按照声音分类的做法,本人一开始使用的是声谱图和梅尔频谱。声谱图和梅尔频谱这两种数据预处理在声音分类中有着非常好的效果,具体的预处理方式如下,但是效果不佳,所以改成本项目使用的预处理方式,这个种预处理方式是使用多种处理方式合并在一起的。
夜雨飘零
2022/09/07
2.3K0
使用Python实现深度学习模型:语音合成与语音转换
语音合成和语音转换是语音处理中的重要任务,广泛应用于语音助手、语音导航、语音翻译等领域。通过使用Python和深度学习技术,我们可以构建一个简单的语音合成与语音转换系统。本文将介绍如何使用Python实现这些功能,并提供详细的代码示例。
Echo_Wish
2024/07/19
3160
使用Python实现深度学习模型:语音合成与语音转换
应用深度学习使用 Tensorflow 对音频进行分类
原文链接 / https://pub.towardsai.net/a-gentle-introduction-to-audio-classification-with-tensorflow-c469cb0be6f5
LiveVideoStack
2021/07/12
1.7K0
基于PaddlePaddle实现声音分类
本章我们来介绍如何使用PaddlePaddle训练一个区分不同音频的分类模型,例如你有这样一个需求,需要根据不同的鸟叫声识别是什么种类的鸟,这时你就可以使用这个方法来实现你的需求了。
夜雨飘零
2020/05/01
2K0
音频数据建模全流程代码示例:通过讲话人的声音进行年龄预测
来源:DeepHub IMBA本文约6100字,建议阅读10+分钟本文展示了从EDA、音频预处理到特征工程和数据建模的完整源代码演示。 大多数人都熟悉如何在图像、文本或表格数据上运行数据科学项目。但处理音频数据的样例非常的少见。在本文中,将介绍如何在机器学习的帮助下准备、探索和分析音频数据。简而言之:与其他的形式(例如文本或图像)类似我们需要将音频数据转换为机器可识别的格式。 音频数据的有趣之处在于您可以将其视为多种不同的模式: 可以提取高级特征并分析表格数据等数据。 可以计算频率图并分析图像数据等数据。
数据派THU
2022/03/08
1.2K0
librosa音频处理教程
Librosa是一个 Python 模块,用于分析一般的音频信号,是一个非常强大的python语音信号处理的第三方库,根据网络资料以及官方教程,本文主要总结了一些重要且常用的功能。
致Great
2022/05/13
4.4K0
librosa音频处理教程
基于Tensorflow2实现的中文声纹识别
本章介绍如何使用Tensorflow实现简单的声纹识别模型,首先你需要熟悉音频分类,没有了解的可以查看这篇文章《基于Tensorflow实现声音分类》 。基于这个知识基础之上,我们训练一个声纹识别模型,通过这个模型我们可以识别说话的人是谁,可以应用在一些需要音频验证的项目。不同的是本项目使用了ArcFace Loss,ArcFace loss:Additive Angular Margin Loss(加性角度间隔损失函数),对特征向量和权重归一化,对θ加上角度间隔m,角度间隔比余弦间隔在对角度的影响更加直接。
夜雨飘零
2021/12/07
1.4K0
librosa怎么安装_librosa保存音频
Librosa是一个用于音频、音乐分析、处理的python工具包,一些常见的时频处理、特征提取、绘制声音图形等功能应有尽有,功能十分强大。本文主要介绍librosa的安装与使用方法。
全栈程序员站长
2022/11/03
1.9K0
歌声合成相关的数据集
GTZAN数据集是一个非常流行的音乐数据集,包含10个音乐流派,每个流派有100首30秒的音频片段。
AI拉呱
2024/06/06
4130
人工智能下的音频还能这样玩!!!!
Librosa是一个用于音频、音乐分析、处理的python工具包,一些常见的时频处理、特征提取、绘制声音图形等功能应有尽有,功能十分强大。本文主要介绍librosa的安装与使用方法。
Python研究者
2021/08/21
1.6K0
使用 PyTorch 进行音频信号处理的数据操作和转换
torchaudio 的目标是将PyTorch应用到音频领域。通过支持 PyTorch,torchaudio 遵循相同的理念,即提供强大的 GPU 加速,通过 autograd 系统专注于可训练的特征,并具有一致的风格(张量名称和维度名称)。因此,它主要是一个机器学习库,而不是一个通用的信号处理库。PyTorch 的好处可以在 torchaudio 中看到,因为所有计算都通过 PyTorch 操作进行,这使得它易于使用并且感觉像是一个自然的扩展。
海拥
2022/09/29
3.3K0
推荐阅读
相关推荐
TensorFlow和Pytorch中的音频增强
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验