我用keras (用于情感语音识别的LSTM分类器)与python一起构建了一个深度学习模型,它在本地工作得很好,但是当我加载模型或传递音频分类时,我得到了很高的内存使用量(到目前为止没有问题,因为我的机器中有16 in )。我试图在一个烧瓶web应用程序中将我的模型部署到Azure中,我的问题是:我需要一个云中的“超级机器”来运行我的模型,或者还有其他方法来部署它,以降低成本?
我已经使用Python语音识别工作了大半个月,制作了一个类似JARVIS的助手。我已经通过Google Speech API和Pocketsphinx使用了语音识别模块,并且我直接使用了Pocketsphinx,而没有使用其他模块。虽然识别是准确的,但我很难处理这些软件包处理语音所需的大量时间。它们的工作方式似乎是从一个静默点记录到另一个静默点,然后将记录传递给STT引擎。在处理录音的过程中,无法录制其他声音进行识别,如果我试图连续发出多个复杂的命令,这可能是一个问题。
当查看Google Assistant语音识别、Alexa的语音识别或Mac OS High Sierra的离线识别时,我看