该应用程序使用面部检测作为实现面部识别的第一步过滤器。识别过程是由第三方(远程) API完成的,所以不用担心,但检测是由Google Mobile Vision API for Android执行的。这个应用的代码是从这个例子中派生出来的: (人脸跟踪)。因此,如果这段代码运行,我的应用程序也会运行。我还知道,树莓派和相机尝试创建多个输出曲面存在一个已知问题。我的问题是:(1)有没有办法成功运行示例中的代码(人脸跟踪)?(2)什么时候能解决这个已知问题?细心的,
格塞恩·卡
我正在为一个大学项目在一台覆盆子pi 4上开发一个面部识别系统。我必须使用Google Auto ML、Facenet和Tensorflow。我对他们是什么有一些了解(我认为),只是想要一些关于他们真正做什么的指导,以及当涉及到面部识别时,他们如何影响对方的操作。任何指南都会非常感谢它,只需要显示正确的路径就行了!
我正在尝试做以下几件事:我有一个设备:带有麦克风的树莓派我将音频从树莓派发送到谷歌(实时流:-),它被转录成文本(< google CloudNatural text is analyzed (<代码>E112</代码>Google Cloud Natural Language)I做一些后期处理)将结果返回给树莓派<代码>H218</代码><代码>F219<