我想实现面部识别,我被困在PutMedia的一步。在亚马逊提供的演示/文档中,我只找到了与Java生产者库和SDK相关的细节,而没有发现任何与Android和SDK相关的细节,其中我需要使用Android作为Kinesis,并将视频流到Rekognition如果没有,如何在安卓应用程序中与Android生产者库和SDK一起实现PutMedia。所需的完整流程如下:
A
我正在使用XBox Kinect和Kinect for Windows SDK。我想制作一个应用程序,将3D蒙版(在3DS Max中制作的蒙版的3D模型)添加到使用该应用程序的任何人的脸上。因此,我想知道的是,目前是否可以使用最新的Kinect for Windows SDK中的面部识别和骨骼跟踪功能将3DS Max模型增强到实时视频流中,如果可以,我应该如何/从哪里开始尝试/实现这一点?另外,是的,我已经阅读了UI指南和面部文档。我的问题是不知道从哪里开始编程,而不是不理解基本概念。
我有一个python项目,可以调用摄像头进行面部识别。这个面部识别过程大约需要2.5分钟: 1-调用网络摄像头,2-拍摄用户正确的面部照片,3-返回面部识别结果。我的问题是,如何通过Webhook调用python API on Cloud函数,通过Watson Assistant会话调用摄像头进行人脸识别?