我已经看到了许多讨论在各种浏览器中删除自动音频处理的帖子,通常是与WebRTC相关的。这个javascript是这样的:
navigator.mediaDevices.getUserMedia({
audio: {
autoGainControl: false,
channelCount: 2,
echoCancellation: false,
latency: 0,
noiseSuppression: false,
sampleRate: 48000,
sampleSize: 16,
volume: 1.0
}
});
我已经设置了从我的家庭演播室到我的网站的WebRTC直播流,并需要实现这一点,但我不清楚在信号链中的什么位置放置了约束。
如果我在我的录音室中生成音频,而观众正在使用给定的浏览器在我的网站上观看/收听,那么似乎将代码放在观众端的html/javascript中是合适的位置,而不是我的端。但如果用户只是观察(而不是生成自己的任何音频),则调用
navigator.mediaDevices.getUserMedia
它们的末端看起来是惰性的。
在浏览器端实现javascript代码段以删除音频处理的合适方法是什么?应该通过Web Audio API来实现吗?
发布于 2020-11-13 04:41:26
这些媒体约束是音频捕获约束,用于录制音频...在源端。
https://stackoverflow.com/questions/64809968
复制相似问题