前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Android人脸识别之识别人脸特征

Android人脸识别之识别人脸特征

作者头像
用户1269200
发布于 2018-06-22 06:34:29
发布于 2018-06-22 06:34:29
21.2K00
代码可运行
举报
文章被收录于专栏:刘望舒刘望舒
运行总次数:0
代码可运行

我最近创建了一个知识星球,13天已经有近160个朋友加入。其中嘉宾有《Android群英传》系列作者徐宜生、今日头条高级工程师月亮和六便士、阿里巴巴无线技术专家辰星。加入星球可以7折购买签名版《Android进阶之光》续作。更多福利请扫描下方二维码了解。

作者:junerver 链接:https://www.jianshu.com/p/b41f64389c21

Android 人脸识别之人脸注册这篇文章中我大致的介绍了官方 Demo 中人脸注册的流程,本文我们接着来看看,在完成了人脸注册之后我们该如何识别出用户的人脸特征,从而通过人脸识别获取用户信息。

人脸识别的全部流程集成在官方 Demo 的 DetecterActivity 文件中。

还是来了解几个概念

人脸追踪 FT 年龄检测 Age 性别检测 Gender 其中人脸追踪 FT 与人脸检测 FD 功能基本一致(甚至代码基本都是相同的),Age 引擎用于识别年龄,Gender 引擎用于识别性别。

识别流程

整体上比人脸注册还要简单,官方提供了很好的封装供我们使用,我们来看看流程。

第一步: 创建两个叠加在一起的 SurfaceView,一个用于显示摄像头的预览信息,一个用于框出摄像头预览中人脸的位置;

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
//覆盖在相机预览之上的一层surfaceview
mGLSurfaceView = (CameraGLSurfaceView) findViewById(R.id.glsurfaceView);
mGLSurfaceView.setOnTouchListener(this);
//摄像头的surfaceview
mSurfaceView = (CameraSurfaceView) findViewById(R.id.surfaceView);
mSurfaceView.setOnCameraListener(this);
mSurfaceView.setupGLSurafceView(mGLSurfaceView, true, mCameraMirror, mCameraRotate);
mSurfaceView.debug_print_fps(true, false);

这里面出现了两个监听器,分别是View.OnTouchListener 、CameraSurfaceView.OnCameraListener,第一个监听器用于设置触摸对焦,第二个监听器就是我们实现人脸识别的最基础一步:设置、获取摄像头的数据;

该接口共有6个方法:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
public interface OnCameraListener {
    /**
     * setup camera. 设置相机参数
     * @return the camera
     */
    public Camera setupCamera();
    /**
     * reset on surfaceChanged.  在Surfacechanged之后重置
     * @param format image format.
     * @param width width
     * @param height height.
     */
    public void setupChanged(int format, int width, int height);
    /**
     * start preview immediately, after surfaceCreated 
     在surfaceCreated之后是否立即开始预览
     * @return true or false.
     */
    public boolean startPreviewImmediately();
    /**
     * on ui thread. 在预览时刚方法会被调用,该方法的返回值是后两个方法的传入值
     * @param data image data
     * @param width  width
     * @param height height
     * @param format format
     * @param timestamp time stamp
     * @return image params.
     */
    public Object onPreview(byte[] data, int width, int height, 
int format, long timestamp);
    public void onBeforeRender(CameraFrameData data);
    public void onAfterRender(CameraFrameData data);
}

初始化相机

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
@Override
public Camera setupCamera() {
    // TODO Auto-generated method stub
    //初始化相机?
    mCamera = Camera.open(mCameraID);
    try {
        Camera.Parameters parameters = mCamera.getParameters();
        parameters.setPreviewSize(mWidth, mHeight);
        parameters.setPreviewFormat(mFormat);
        for( Camera.Size size : parameters.getSupportedPreviewSizes()) {
            Log.d(TAG, "SIZE:" + size.width + "x" + size.height);
        }
        for( Integer format : parameters.getSupportedPreviewFormats()) {
            Log.d(TAG, "FORMAT:" + format);
        }
        List<int[]> fps = parameters.getSupportedPreviewFpsRange();
        for(int[] count : fps) {
            Log.d(TAG, "T:");
            for (int data : count) {
                Log.d(TAG, "V=" + data);
            }
        }
        //parameters.setPreviewFpsRange(15000, 30000);
        //parameters.setExposureCompensation(parameters.getMaxExposureCompensation());
        //parameters.setWhiteBalance(Camera.Parameters.WHITE_BALANCE_AUTO);
        //parameters.setAntibanding(Camera.Parameters.ANTIBANDING_AUTO);
        //parmeters.setFocusMode(Camera.Parameters.FOCUS_MODE_AUTO);
        //parameters.setSceneMode(Camera.Parameters.SCENE_MODE_AUTO);
        //parameters.setColorEffect(Camera.Parameters.EFFECT_NONE);
        mCamera.setParameters(parameters);
    } catch (Exception e) {
        e.printStackTrace();
    }
    if (mCamera != null) {
        mWidth = mCamera.getParameters().getPreviewSize().width;
        mHeight = mCamera.getParameters().getPreviewSize().height;
    }
    return mCamera;
}

摄像头开始预览时:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
@Override
public Object onPreview(byte[] data, int width, int height, int format, long timestamp) {
    //获取摄像头的帧数据,该数据为NV21格式 byte数组
    //调用FT人脸追踪引擎的人脸特征查明方法,结果保存到List<AFT_FSDKFace> result
    AFT_FSDKError err = engine.AFT_FSDK_FaceFeatureDetect(data, width, height, 
    AFT_FSDKEngine.CP_PAF_NV21, result);
    Log.d(TAG, "AFT_FSDK_FaceFeatureDetect =" + err.getCode());
    Log.d(TAG, "Face=" + result.size());
    for (AFT_FSDKFace face : result) {
        Log.d(TAG, "Face:" + face.toString());
    }
    if (mImageNV21 == null) {
        if (!result.isEmpty()) {
            //追踪到人脸数据,取出当前追踪的人脸,取出当前帧的NV21数据(用于人脸识别)
            mAFT_FSDKFace = result.get(0).clone();
            mImageNV21 = data.clone();
        } else {
            if (!isPostted) {
                                //隐藏人脸信息的提示
                mHandler.removeCallbacks(hide);
                mHandler.postDelayed(hide, 2000);
                isPostted = true;
            }
        }
    }
    //copy rects  取出人脸追踪的Rect
    Rect[] rects = new Rect[result.size()];
    for (int i = 0; i < result.size(); i++) {
        rects[i] = new Rect(result.get(i).getRect());
    }
    //clear result.清空原来的人脸追踪结果List
    result.clear();
    //return the rects for render.
    return rects;
}

渲染之后调用:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
@Override
    public void onAfterRender(CameraFrameData data) {
        //在该surfaceview上画方块,这里的data就是上一个方法中的返回值 return rects;
        mGLSurfaceView.getGLES2Render().draw_rect((Rect[])data.getParams(), 
        Color.GREEN, 2);
    }

第二步: 使用 FR 人脸识别引擎识别人脸信息,如果你已经浏览了上一步的代码,你会发现这一行关键代码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
if (!result.isEmpty()) {
            //追踪到人脸数据,取出当前追踪的人脸,取出当前帧的NV21数据(用于人脸识别)
            mAFT_FSDKFace = result.get(0).clone();
            mImageNV21 = data.clone();
        } 

当 FT 人脸追踪引擎识别出人脸信息时,我们将当前帧的人脸信息集合放在 mAFT_FSDKFace 当前帧的 NV21 格式 byte 数组放在 mImageNV21 中,有了长两个关键数据,联系我们的上一篇文章你大概知道我们可以用他们来做什么了吧? 上次我们已经介绍过 AFR_FSDK_ExtractFRFeature 特征提取接口,我们就不再赘述了。

流程是这样的 提取图片中的人脸 → 与我们已经注册过得特征集合进行特征匹配 → 匹配程度最高的作为最终识别结果

这一过程是放在一个子线程中运行的,代码如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
//人脸识别线程
class FRAbsLoop extends AbsLoop {
    AFR_FSDKVersion version = new AFR_FSDKVersion();
    AFR_FSDKEngine engine = new AFR_FSDKEngine(); //人脸识别引擎
    AFR_FSDKFace result = new AFR_FSDKFace(); //人脸特征
    //全部已经保存的人脸特征集合
    List<FaceDB.FaceRegist> mResgist = ((Application)DetecterActivity.this.getApplicationContext()).mFaceDB.mRegister;
    List<ASAE_FSDKFace> face1 = new ArrayList<>();//年龄识别结果
    List<ASGE_FSDKFace> face2 = new ArrayList<>();//性别识别结果
    @Override
    public void setup() {
        AFR_FSDKError error = engine.AFR_FSDK_InitialEngine(FaceDB.appid, FaceDB.fr_key);   //初始化人脸识别引擎
        Log.d(TAG, "AFR_FSDK_InitialEngine = " + error.getCode());
        error = engine.AFR_FSDK_GetVersion(version);
        Log.d(TAG, "FR=" + version.toString() + "," + error.getCode()); //(210, 178 - 478, 446), degree = 1 780, 2208 - 1942, 3370
    }
    @Override
    public void loop() {
        //当人脸追踪FT引擎获取到人脸后,该数据不为null
        if (mImageNV21 != null) {
            final int rotate = mCameraRotate;
            long time = System.currentTimeMillis();
            //FR引擎人脸特征提取
            AFR_FSDKError error = engine.AFR_FSDK_ExtractFRFeature(mImageNV21, mWidth, mHeight, AFR_FSDKEngine.CP_PAF_NV21, mAFT_FSDKFace.getRect(), mAFT_FSDKFace.getDegree(), result);
            Log.d(TAG, "AFR_FSDK_ExtractFRFeature cost :" + (System.currentTimeMillis() - time) + "ms");
            Log.d(TAG, "Face=" + result.getFeatureData()[0] + "," + result.getFeatureData()[1] + "," + result.getFeatureData()[2] + "," + error.getCode());
            //特征匹配结果实例
            AFR_FSDKMatching score = new AFR_FSDKMatching();
            float max = 0.0f;
            String name = null;
            for (FaceDB.FaceRegist fr : mResgist) {
                for (AFR_FSDKFace face : fr.mFaceList) {
                    //FT人脸追踪提取出的特征、for循环取出的系统中保存的特征、特征匹配结果
                    error = engine.AFR_FSDK_FacePairMatching(result, face, score);
                    Log.d(TAG,  "Score:" + score.getScore() + ", AFR_FSDK_FacePairMatching=" + error.getCode());
                    if (max < score.getScore()) {
                        max = score.getScore();
                        name = fr.mName;
                    } //从整个集合中取出最大匹配结果与姓名
                }
            }
            //age & gender
            face1.clear();
            face2.clear();
            face1.add(new ASAE_FSDKFace(mAFT_FSDKFace.getRect(), mAFT_FSDKFace.getDegree()));
            face2.add(new ASGE_FSDKFace(mAFT_FSDKFace.getRect(), mAFT_FSDKFace.getDegree()));
            ASAE_FSDKError error1 = mAgeEngine.ASAE_FSDK_AgeEstimation_Image(mImageNV21, mWidth, mHeight, AFT_FSDKEngine.CP_PAF_NV21, face1, ages);
            ASGE_FSDKError error2 = mGenderEngine.ASGE_FSDK_GenderEstimation_Image(mImageNV21, mWidth, mHeight, AFT_FSDKEngine.CP_PAF_NV21, face2, genders);
            Log.d(TAG, "ASAE_FSDK_AgeEstimation_Image:" + error1.getCode() + ",ASGE_FSDK_GenderEstimation_Image:" + error2.getCode());
            Log.d(TAG, "age:" + ages.get(0).getAge() + ",gender:" + genders.get(0).getGender());
            final String age = ages.get(0).getAge() == 0 ? "年龄未知" : ages.get(0).getAge() + "岁";
            final String gender = genders.get(0).getGender() == -1 ? "性别未知" : (genders.get(0).getGender() == 0 ? "男" : "女");
            //crop  截取该人脸信息
            byte[] data = mImageNV21;
            YuvImage yuv = new YuvImage(data, ImageFormat.NV21, mWidth, mHeight, null);
            ExtByteArrayOutputStream ops = new ExtByteArrayOutputStream();
            //传入要截取的Rect范围
            yuv.compressToJpeg(mAFT_FSDKFace.getRect(), 80, ops);
            final Bitmap bmp = BitmapFactory.decodeByteArray(ops.getByteArray(), 0, ops.getByteArray().length);
            try {
                ops.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
            if (max > 0.6f) {
                //fr success.置信度大于0.6
                final float max_score = max;
                Log.d(TAG, "fit Score:" + max + ", NAME:" + name);
                final String mNameShow = name;
                mHandler.removeCallbacks(hide);
                mHandler.post(new Runnable() {
                    @Override
                    public void run() {
                        mTextView.setAlpha(1.0f);
                        mTextView.setText(mNameShow);
                        mTextView.setTextColor(Color.RED);
                        mTextView1.setVisibility(View.VISIBLE);
                        mTextView1.setText("置信度:" + (float)((int)(max_score * 1000)) / 1000.0);
                        mTextView1.setTextColor(Color.RED);
                        mImageView.setRotation(rotate);
                        if (mCameraMirror) {
                            mImageView.setScaleY(-1);
                        }
                        mImageView.setImageAlpha(255);
                        mImageView.setImageBitmap(bmp);
                    }
                });
            } else {
                final String mNameShow = "未识别";
                DetecterActivity.this.runOnUiThread(new Runnable() {
                    @Override
                    public void run() {
                        mTextView.setAlpha(1.0f);
                        mTextView1.setVisibility(View.VISIBLE);
                        mTextView1.setText( gender + "," + age);
                        mTextView1.setTextColor(Color.RED);
                        mTextView.setText(mNameShow);
                        mTextView.setTextColor(Color.RED);
                        mImageView.setImageAlpha(255);
                        mImageView.setRotation(rotate);
                        if (mCameraMirror) {
                            mImageView.setScaleY(-1);
                        }
                        mImageView.setImageBitmap(bmp);
                    }
                });
            }
            mImageNV21 = null;
        }
    }
    @Override
    public void over() {
        AFR_FSDKError error = engine.AFR_FSDK_UninitialEngine();
        Log.d(TAG, "AFR_FSDK_UninitialEngine : " + error.getCode());
    }
}

这段代码还是很简单的,关键部分我都已经加了注释,相比大家看了也都能理解。

这里在废话几句:FD与FT引擎功能大致相同,完成的都是从一个 NV21 格式的图片 byte 数组中检测识别出人脸的位置 Rect 与角度信息。在获得这个信息后,我们调用FR人脸识别引擎识别出特征值信息,然后使用AFR_FSDK_FacePairMatching特征值匹配方法,一一的与我们程序中原来存储的人脸特征进行匹配,取出其中匹配值最高的那组特征值,获取该特征值的注册名。

到这里整个人脸识别的流程我们就都已经清晰的掌握了,如果没有看明白,就下载我加过注释的源码,再仔细看看代码是如何实现的。

本文有可能是这次文章的最后一篇了,但我标题上写的是中,下一片文章可能会介绍下我在实际使用虹软人脸识别 SDK 中遇到的问题以及解决方法(目前还没投入到项目中使用)。如果没有遇到问题的话,本文就此全文终。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-06-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 刘望舒 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
【优选算法篇】编织算法的流动诗篇:滑动窗口的轻盈之美
题目链接:209. 长度最小的子数组 题目描述: 给定一个含有 n 个正整数的数组 nums 和一个正整数 target。 找出该数组中满足其和 ≥ target 的长度最小的 连续子数组 [numsl, numsl+1, ..., numsr-1, numsr] ,并返回其长度。如果不存在符合条件的子数组,返回 0。
半截诗
2024/10/20
1850
【优选算法篇】滑动窗口的艺术:如何动态调整子区间解决复杂问题(中篇)
接上篇:【优选算法篇】一文读懂滑动窗口:动态调整范围的算法利器(上篇)-CSDN博客
熬夜学编程的小王
2024/12/24
2330
【优选算法篇】滑动窗口的艺术:如何动态调整子区间解决复杂问题(中篇)
【双指针进阶】深入理解双指针作用——滑动窗口题型带你一网打尽!
用户11286421
2024/11/26
1370
【双指针进阶】深入理解双指针作用——滑动窗口题型带你一网打尽!
深入理解滑动窗口算法及其经典应用
滑动窗口技术通常用于解决子数组或子串相关的问题。其主要思想是在数组或字符串上维持一个固定的窗口大小,或在特定条件下调整窗口大小,从而在窗口内进行高效的计算。滑动窗口技术可以帮助我们在O(n)的时间复杂度内解决一些需要遍历整个数组或字符串的问题。 滑动窗口的基本步骤包括:
DevKevin
2024/08/29
4280
【c++算法篇】滑动窗口
滑动窗口是一种常用的算法技术,它适用于需要检查序列(如数组或字符串)中的一系列连续元素的问题。通过维护序列中的一段特定大小的连续元素集,滑动窗口减少了不必要的重复计算,从而优化了性能。这种技术经常用于求解最大或者最小总和、长度满足特定条件的子串或子数组的问题。
用户11029103
2024/05/24
2980
【c++算法篇】滑动窗口
【优先算法】专题——滑动窗口
「从前往后」枚举数组中的任意⼀个元素,把它当成起始位置。然后从这个「起始位置」开始,然 后寻找⼀段最短的区间,使得这段区间的和「⼤于等于」⽬标值。
用户11375356
2024/12/24
700
【优先算法】专题——滑动窗口
动态中的守候:滑动窗口与距离的诗篇
根据你提供的图片,题目是**“长度最小的子数组”**(Leetcode 209 题),具体信息如下:
Undoom
2024/10/22
1320
动态中的守候:滑动窗口与距离的诗篇
【优选算法篇】用滑动窗口解锁 5 大经典问题,轻松应对高频算法题(下篇)
接上篇:【优选算法篇】滑动窗口的艺术:如何动态调整子区间解决复杂问题(中篇)-CSDN博客
熬夜学编程的小王
2024/12/24
1620
【优选算法篇】用滑动窗口解锁 5 大经典问题,轻松应对高频算法题(下篇)
【算法专题】滑动窗口
找出该数组中满足其和 ≥ target 的长度最小的 连续子数组[numsl, numsl + 1, …, numsr - 1, numsr] ,并返回其长度。 如果不存在符合条件的子数组,返回 0 。
YoungMLet
2024/03/01
1690
【C++例题 / 训练】滑动窗口(总结&&例题)
本篇主要总结关于滑动窗口的相关做题技巧与注意事项,滑动窗口也用到了双指针的内容,可以参考这篇文章【算法/学习】双指针-CSDN博客 ,本篇主要用于在了解滑动窗口的构造后,快速掌握滑动窗口的做题技巧与做题模板,便于以后复习参阅
IsLand1314
2024/10/15
1790
【C++例题 / 训练】滑动窗口(总结&&例题)
【优选算法篇】踏入算法的深邃乐章:滑动窗口的极致探秘
题目描述: 你正在探访一家农场,农场从左到右种植了一排果树。这些树用一个整数数组 fruits 表示,其中 fruits[i] 是第 i 棵树上的水果种类。你想要尽可能多地收集水果,但是有一些规则:
半截诗
2024/10/20
1350
【优选算法篇】踏入算法的深邃乐章:滑动窗口的极致探秘
【算法一周目】滑动窗口(1)
题目链接:209. 长度最小的子数组 题目描述: 给定一个含有 n 个正整数的数组 nums 和一个正整数 target。 找出该数组中满足其和 ≥ target 的长度最小的 连续子数组 [numsl, numsl+1, ..., numsr-1, numsr] ,并返回其长度。如果不存在符合条件的子数组,返回 0。
HZzzzzLu
2024/11/26
960
【算法一周目】滑动窗口(1)
基础算法---滑动窗口
滑动窗口(Sliding Window)是一种在计算机科学中用于解决各种子数组或子字符串问题的技术。滑动窗口技术通过维护一个固定大小的窗口在数组或字符串上移动,从而使得可以在较短的时间内解决一些复杂的问题。这种方法在处理一系列数据时特别高效。滑动窗口(Sliding Window)是一种在计算机科学中用于解决各种子数组或子字符串问题的技术。滑动窗口技术通过维护一个固定大小的窗口在数组或字符串上移动,从而使得可以在较短的时间内解决一些复杂的问题。这种方法在处理一系列数据时特别高效。
用户11305458
2024/10/09
9010
基础算法---滑动窗口
【Leetcode-滑动窗口问题】
找出该数组中满足其和 ≥ target 的长度最小的 连续子数组 [numsl, numsl+1, …, numsr-1, numsr] ,并返回其长度。如果不存在符合条件的子数组,返回 0 。
每天都要进步呀
2023/03/28
3630
【Leetcode-滑动窗口问题】
有点难度,几道和「滑动窗口」有关的算法面试题
滑动问题包含一个滑动窗口,它是一个运行在一个大数组上的子列表,该数组是一个底层元素集合。
五分钟学算法
2019/05/06
9750
有点难度,几道和「滑动窗口」有关的算法面试题
【C++】滑动窗口算法专题
由于此问题分析的对象是「⼀段连续的区间」,因此可以考虑「滑动窗⼝」的思想来解决这道题。
啊QQQQQ
2024/11/19
1380
【C++】滑动窗口算法专题
算法思想总结:滑动窗口算法
但是有一个需要注意的地方就是如果涉及到窗口求和的话。要保证数都是正整数,否则就不满足单调性。如下图这一题
小陈在拼命
2024/03/23
3890
算法思想总结:滑动窗口算法
【优选算法】探索双指针之美(一): 同向双指针缔造滑动窗口
在上一章中想必我们已经领略到了双指针和单调性相遇后擦出的美妙火花,在这章中我们就来一起探索一下同向双指针又有怎样的独特风味
_孙同学
2024/11/13
1420
【优选算法】探索双指针之美(一): 同向双指针缔造滑动窗口
leetcode必备算法:聊聊滑动窗口
我们刷leetcode的时候,经常会遇到滑动窗口类型题目。滑动窗口问题非常经典,也很有技巧性,一般大厂也喜欢问。今天跟大家一起来学习滑动窗口的套路,文章如果有不正确的地方,欢迎大家指出哈,感谢感谢~
捡田螺的小男孩
2021/11/15
1.7K0
leetcode必备算法:聊聊滑动窗口
双指针滑动窗口法解析及LeetCode相关题解
如下图,n=8,k=3,即求连续3个数和的最大值。可以想象有一个红色的容量为3个数字的矩形窗口在沿着数字序列滑动,有两个指针right和left分别指向窗口的两端:left指向窗口左端,right指向窗口右端。窗口不断滑动的过程其实就是left++,right++的过程,直至right移至数列末端。
用户6557940
2022/07/24
4420
双指针滑动窗口法解析及LeetCode相关题解
推荐阅读
相关推荐
【优选算法篇】编织算法的流动诗篇:滑动窗口的轻盈之美
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档