在我们的项目中,我们使用AudioContext将输入从麦克风连接到AudioWorkletProcessor,然后再连接到MediaStream。最终,这将在WebRTC调用中发送给其他对等体。如果我们去掉所有其他代码并简化它,我们仍然会有问题。processor that wires input to output without transforming the data
// https://github.com/GoogleChromeLabs/web-
我正在尝试通过Websocket播放音频。
我可以从麦克风(或其他来源)通过Web获得一个AudioBuffer,并流原始音频缓冲区,但我认为这将不是很有效。-如果Opus-Codec不可行,我愿意接受其他选择,并感谢任何正确方向的暗示。我尝试过使用MediaRecorder (来自MediaStreamRecording- API ),但似乎不可能使用该API进行流</e