我正在使用Wave文件(立体声文件)处理,在这里,我希望将我的系统音量设置为最大,并使用滚动条更改wave文件的声音。也就是说,系统的音量应该是100%,我想在60分贝到100分贝的范围内播放我的波形文件,而且总是波形文件的左通道和右通道的容量不一样。(左频道可播放60分贝,右频道可在70分贝播放)。
为了实现这一点,我使用CSCore音频库,因为我的项目是在C#上开发的。
// Creating the Wave source from the source file
IWaveSource waveSource = CodecFactory.Instance.GetCodec("C
我在Web的分析器节点上使用getSpectrum方法创建了一个getByteFrequencyData方法。返回的音频数据数组相对于音频源的volume (一个el或Audio()实例),该值从0到1。
使用音频源的音量,我试图规范从getByteFrequencyData接收到的每个值,以便getSpectrum的用户在可视化音频数据时不必担心音量。
这是getSpectrum的条带化版本。
var audioData = new Uint8Array(analyser.binCount);
var spectrum = [];
analyser.getByteFrequencyData
我可以使用Swift for iOS录制音频,并播放录制的音频文件。我想问的是,是否可以检查录制的音频文件的背景噪声&音量/分贝,这样我就可以确定它对于我的speech to text框架是否足够好。框架不是问题所在,我研究了所有可用的框架。
我很好奇是否可以使用AVFoundation或Accelerate框架或任何其他框架分析录制的音频文件,以检查音频文件是否足够好/足够清晰,可以使用speech to text框架进行处理。
我没有太多的音频知识,但我研究了一下,发现我可以在录音时获得峰值和平均分贝值,但背景噪音呢?
任何信息都有助于使用Swift分析录制的音频文件。