我已经开发了一个使用Google Vision API(离线)检测人脸的应用程序,然后将检测的图像发送到Microsoft Azure以获取该人脸的信息(年龄、性别...)。在我的例子中,我还需要计算(至少是近似的)摄像头和检测到的人脸之间的距离,我在Microsoft Azure文档中没有看到这个选项,所以我想它没有实现。我应该实现什么来计算摄像头和人脸之间的距离?我能用OpenCV或其他OpenSource库实现这个目标吗? 我在SO (How to measure height, width and distance of object using camera?)中看到了这个答案,但
我想在我的应用程序中创建一个动画。但是当我和一些设计师接触时,他们不知道如何设计一个动画3D模型。我在哪里可以找到一个可供参考的解决方案?
解决方案是在三维模型的人脸上创建多块骨头,当得到包含人脸表情细节信息的blendShapes of ARFaceAnchor,然后用它来更新部分人脸的骨骼动画。
感谢您的阅读。如有任何建议,我们将不胜感激。
我刚刚通过云服务在基于python的应用程序中启用了人脸识别。但是根据我以前开发人脸识别应用程序的经验,我的模型曾经要求至少3-4个人对人脸进行正确的分类(在某种程度上)。
我的问题是,是否有任何这样的最低要求的人,需要添加到一个personGroup,以便模型,然后可以训练,以正确地分类面孔。
在我草率决定选择Azure Face API作为我的主要FR平台之前,我只想知道这一点。
我有一个代码,可以检测图像中的人脸,并在图像周围放置一个边界框,如下所示。
但我想走得更远,将边界框外的区域涂成黑色,这样就只能看到人脸,背景变成黑色。原始代码..
FDetect = vision.CascadeObjectDetector;
I = imread('PresidentClinton.jpg');
%Returns Bounding Box values based on number of objects
BB = step(FDetect,I);
figure,
imshow(I); hold on
for i = 1:size(BB,1)
rect