首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >使用python3.7和opencv4.1来实现人脸识别和人脸特征比对以及模型训练

使用python3.7和opencv4.1来实现人脸识别和人脸特征比对以及模型训练

作者头像
用户9127725
发布于 2022-08-08 02:26:34
发布于 2022-08-08 02:26:34
2.1K00
代码可运行
举报
运行总次数:0
代码可运行

     OpenCV4.1已经发布将近一年了,其人脸识别速度和性能有了一定的提高,这里我们使用opencv来做一个实时活体面部识别的demo

    首先安装一些依赖的库

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install opencv-python
pip install opencv-contrib-python
pip install numpy
pip install pillow

     需要注意一点,最好将pip设置国内的源,否则安装会很慢

     win10在用户目录下创建一个pip文件夹,然后在pip文件夹内创建一个pip.ini文件,文件内容如下

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[global]

trusted-host = mirrors.aliyun.com

index-url = http://mirrors.aliyun.com/pypi/simple

     这样就可以用国内的源来下载安装包

     一开始,我们可以简单的在摄像头中识别人的脸部和眼镜,原来就是用opencv内置的分类器,对直播影像中的每一帧进行扫描

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import numpy as np
import cv2

from settings import src

# 人脸识别
faceCascade = cv2.CascadeClassifier(src+'haarcascade_frontalface_default.xml')

# 识别眼睛
eyeCascade = cv2.CascadeClassifier(src+'haarcascade_eye.xml')

# 开启摄像头
cap = cv2.VideoCapture(0)
ok = True

result = []

while ok:
    # 读取摄像头中的图像,ok为是否读取成功的判断参数
    ok, img = cap.read()
    # 转换成灰度图像
    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    # 人脸检测
    faces = faceCascade.detectMultiScale(
        gray,     
        scaleFactor=1.2,
        minNeighbors=5,     
        minSize=(32, 32)
    )

    # 在检测人脸的基础上检测眼睛
    for (x, y, w, h) in faces:
        fac_gray = gray[y: (y+h), x: (x+w)]
        result = []
        eyes = eyeCascade.detectMultiScale(fac_gray, 1.3, 2)

        # 眼睛坐标的换算,将相对位置换成绝对位置
        for (ex, ey, ew, eh) in eyes:
            result.append((x+ex, y+ey, ew, eh))

    # 画矩形
    for (x, y, w, h) in faces:
        cv2.rectangle(img, (x, y), (x+w, y+h), (255, 0, 0), 2)

    for (ex, ey, ew, eh) in result:
        cv2.rectangle(img, (ex, ey), (ex+ew, ey+eh), (0, 255, 0), 2)
 
    cv2.imshow('video', img)

    k = cv2.waitKey(1)
    if k == 27:    #按 'ESC' to quit
        break
 
cap.release()
cv2.destroyAllWindows()

     第二步,就是为模型训练收集训练数据,还是通过摄像头逐帧来收集,在脚本运行过程中,会提示输入用户id,请从0开始输入,即第一个人的脸的数据id为0,第二个人的脸的数据id为1,运行一次可收集一张人脸的数据

    脚本时间可能会比较长,会将摄像头每一帧的数据进行保存,保存路径在项目目录下的Facedat目录,1200个样本后退出摄像录制

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import cv2
import os
# 调用笔记本内置摄像头,所以参数为0,如果有其他的摄像头可以调整参数为12
from settings import src

cap = cv2.VideoCapture(0)

face_detector = cv2.CascadeClassifier(src+'haarcascade_frontalface_default.xml')
face_id = input('n enter user id:')

print('n Initializing face capture. Look at the camera and wait ...')

count = 0

while True:

    # 从摄像头读取图片

    sucess, img = cap.read()

    # 转为灰度图片

    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    # 检测人脸

    faces = face_detector.detectMultiScale(gray, 1.3, 5)

    for (x, y, w, h) in faces:
        cv2.rectangle(img, (x, y), (x+w, y+w), (255, 0, 0))
        count += 1

        # 保存图像
        cv2.imwrite("./Facedata/User." + str(face_id) + '.' + str(count) + '.jpg', gray[y: y + h, x: x + w])

        cv2.imshow('image', img)

    # 保持画面的持续。

    k = cv2.waitKey(1)

    if k == 27:   # 通过esc键退出摄像
        break

    elif count >= 1200:  # 得到1000个样本后退出摄像
        break

# 关闭摄像头
cap.release()
cv2.destroyAllWindows()

    第三步,对收集下来的人脸数据进行模型训练,提取特征,训练后,会将特征数据保存在项目目录中的face_trainer文件夹下面

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import numpy as np
from PIL import Image
import os
import cv2
from settings import src
# 人脸数据路径
path = 'Facedata'

recognizer = cv2.face.LBPHFaceRecognizer_create()
detector = cv2.CascadeClassifier(src+"haarcascade_frontalface_default.xml")

def getImagesAndLabels(path):
    imagePaths = [os.path.join(path, f) for f in os.listdir(path)]  
    faceSamples = []
    ids = []
    for imagePath in imagePaths:
        PIL_img = Image.open(imagePath).convert('L')   # convert it to grayscale
        img_numpy = np.array(PIL_img, 'uint8')
        id = int(os.path.split(imagePath)[-1].split(".")[1])
        faces = detector.detectMultiScale(img_numpy)
        for (x, y, w, h) in faces:
            faceSamples.append(img_numpy[y:y + h, x: x + w])
            ids.append(id)
    return faceSamples, ids


print('训练需要一定时间,请耐心等待....')
faces, ids = getImagesAndLabels(path)
recognizer.train(faces, np.array(ids))

recognizer.write(r'./face_trainer/trainer.yml')
print("{0} faces trained. Exiting Program".format(len(np.unique(ids))))

    最后一步,人脸测试,我们将摄像头中的人脸和模型中的特征进行比对,用来判断是否为本人

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import cv2
from settings import src

recognizer = cv2.face.LBPHFaceRecognizer_create()
recognizer.read('./face_trainer/trainer.yml')
cascadePath = src+"haarcascade_frontalface_default.xml"
faceCascade = cv2.CascadeClassifier(cascadePath)
font = cv2.FONT_HERSHEY_SIMPLEX

idnum = 0

names = ['andonghui', 'admin']

cam = cv2.VideoCapture(0)
minW = 0.1*cam.get(3)
minH = 0.1*cam.get(4)

while True:
    ret, img = cam.read()
    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    faces = faceCascade.detectMultiScale(
        gray,
        scaleFactor=1.2,
        minNeighbors=5,
        minSize=(int(minW), int(minH))
    )

    for (x, y, w, h) in faces:
        cv2.rectangle(img, (x, y), (x+w, y+h), (0, 255, 0), 2)
        idnum, confidence = recognizer.predict(gray[y:y+h, x:x+w])

        if confidence < 100:
            idnum = names[idnum]
            confidence = "{0}%".format(round(100 - confidence))
        else:
            idnum = "unknown"
            confidence = "{0}%".format(round(100 - confidence))

        cv2.putText(img, str(idnum), (x+5, y-5), font, 1, (0, 0, 255), 1)
        cv2.putText(img, str(confidence), (x+5, y+h-5), font, 1, (0, 0, 0), 1)

    cv2.imshow('camera', img)
    k = cv2.waitKey(10)
    if k == 27:
        break

cam.release()
cv2.destroyAllWindows()

     整个流程并不复杂,可以让opencv初学者感受一下人脸识别底层的逻辑,说明自研应用还是有一定可操作性的,并不是涉及机器学习的技术就动辄使用百度,阿里云等三方支持。

    最后,送上人脸识别项目地址:

https://gitee.com/QiHanXiBei/face_get/tree/master

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-01-02 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
tensorflow Object Detection API使用预训练模型mask r-cnn实现对象检测
Mask R-CNN是何凯明大神在2017年整出来的新网络模型,在原有的R-CNN基础上实现了区域ROI的像素级别分割。关于Mask R-CNN模型本身的介绍与解释网络上面已经是铺天盖地了,论文也是到处可以看到。这里主要想介绍一下在tensorflow中如何使用预训练的Mask R-CNN模型实现对象检测与像素级别的分割。tensorflow框架有个扩展模块叫做models里面包含了很多预训练的网络模型,提供给tensorflow开发者直接使用或者迁移学习使用,首先需要下载Mask R-CNN网络模型,这个在tensorflow的models的github上面有详细的解释与model zoo的页面介绍, tensorflow models的github主页地址如下: https://github.com/tensorflow/models
OpenCV学堂
2018/09/29
5.9K2
tensorflow Object Detection API使用预训练模型mask r-cnn实现对象检测
利用Tensorflow构建自己的物体识别模型(一)
利用Tensorflow训练搭建自己的物体训练模型,万里长征第一步,先安装tensorflow。
月小水长
2019/07/31
6770
利用Tensorflow构建自己的物体识别模型(一)
MaskRCNN 基于OpenCV DNN的目标检测与实例分割
这里主要记录基于 OpenCV 4.x DNN 模块和 TensorFlow MaskRCNN 开源模型的目标检测与实例分割 的实现.
AIHGF
2019/05/13
2K0
MaskRCNN 基于OpenCV DNN的目标检测与实例分割
目标检测_1
注:上编的路径尽量使用绝对路径,不要使用相对路径和~符号 可能报错 生成frozen_inference_graph.pb文件 及其他文件
Dean0731
2020/05/08
6140
构建对象检测模型
我喜欢深度学习。坦率地说,这是一个有大量技术和框架可供倾注和学习的广阔领域。当我看到现实世界中的应用程序,如面部识别和板球跟踪等时,建立深度学习和计算机视觉模型的真正兴奋就来了。
磐创AI
2020/07/24
1.5K0
构建对象检测模型
ubunu16.04 TensorFlow object detection API 应用配置
TensorFlow object detection API应用–配置 主要参考 : https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md https://www.cnblogs.com/zongfa/p/9662832.html
用户1148525
2019/05/26
6130
TensorFlow 目标检测模型转换为 OpenCV DNN 可调用格式
在 OpenCV4.X 版本(OpenCV3.4.1之后版本) 可以采用 cv2.dnn.readNetFromTensorflow(pbmodel, pbtxt) 函数直接调用 TensorFlow 训练的目标检测模型.
AIHGF
2019/05/13
2.7K0
TensorFlow 目标检测模型转换为 OpenCV DNN 可调用格式
视频目标检测识别
之前文章目标检测API 已经介绍过API的基本使用,这里就不赘述了,直接上本次内容的代码了,添加的内容并不多。将测试的test.mp4原文件放到models-master\research\object_detection路径下,并创建一个detect_video.py文件,代码内容如下:
全栈程序员站长
2022/06/30
1.6K0
视频目标检测识别
干货 | tensorflow模型导出与OpenCV DNN中使用
Deep Neural Network - DNN 是OpenCV中的深度神经网络模块,支持基于深度学习模块前馈网络运行、实现图像与视频场景中的
OpenCV学堂
2019/04/29
5.1K0
干货 | tensorflow模型导出与OpenCV DNN中使用
使用TensorFlow一步步进行目标检测(5)
本教程进行到这一步,您选择了预训练的目标检测模型,转换现有数据集或创建自己的数据集并将其转换为TFRecord文件,修改模型配置文件,并开始训练模型。接下来,您需要保存模型并将其部署到项目中。
云水木石
2019/07/01
5930
使用TensorFlow一步步进行目标检测(5)
Mask-RCNN模型的实现自定义对象(无人机)检测
打开标注工具PixelAnnotation 选择好dataset路径之后,顺序开始标注数据即可!
OpenCV学堂
2019/08/09
1.9K2
Mask-RCNN模型的实现自定义对象(无人机)检测
深度学习入门篇--手把手教你用 TensorFlow 训练模型
该文介绍了如何使用TensorFlow实现YOLO v2神经网络模型对图像进行分类,并给出了代码示例和训练过程的详细步骤。
付越
2017/10/16
10K2
深度学习入门篇--手把手教你用 TensorFlow 训练模型
tensorflow object detection API使用之GPU训练实现宠物识别
之前写过几篇关于tensorflow object detection API使用的相关文章分享,收到不少关注与鼓励,所以决定再写一篇感谢大家肯定与支持。在具体介绍与解释之前,首先简单说一下本人测试与运行的系统与软件环境与版本
OpenCV学堂
2019/11/13
2.5K1
【TensorFlow】使用迁移学习训练自己的模型
最近在研究tensorflow的迁移学习,网上看了不少文章,奈何不是文章写得不清楚就是代码有细节不对无法运行,下面给出使用迁移学习训练自己的图像分类及预测问题全部操作和代码,希望能帮到刚入门的同学。
刘早起
2020/04/23
2.4K0
体感游戏 | 手势识别玩飞机大战游戏(四) 使用深度学习实现手势识别玩飞机大战游戏
今天是第四部分:使用深度学习实现手势识别玩飞机大战游戏的功能。这里标题我把TensorFlow实现改为了深度学习实现,这里识别手势主要用到的是目标检测,当然不止TensorFlow可以实现,其他能够做到实时的目标检测网络也很多,比如最近比较火的YoloV4/V5。这里演示我为了方便,就用我以前训练好的SSD手势识别模型,你只需要使用下面的代码,加载模型就可以测试:
Color Space
2021/01/22
2K0
tensorflow object detection API 详细实践教程
最近由于研究方向的更换,接触到了目标检测(Object Detection)领域,觉得很有意思,并且阅读了该方向的相关经典文献,包括Fast-RCNN、Faster-RCNN、SSD、YOLO以及RetinaNet等。复现别人代码并且能够得到在公开数据集上和原作者相近甚至相同的实验结果对于我们做研究甚至以后的工作来说是至关重要的。
狼啸风云
2022/06/06
8200
tensorflow object detection API 详细实践教程
[Tensorflow] 使用SSD-MobileNet训练模型
因为Android Demo里的模型是已经训练好的,模型保存的label都是固定的,所以我们在使用的时候会发现还有很多东西它识别不出来。那么我们就需要用它来训练我们自己的数据。下面就是使用SSD-MobileNet训练模型的方法。
wOw
2018/09/18
14.1K3
使用Tensorflow Object Detection API实现对象检测
Tensorflow Object Detection API自从发布以来,其提供预训练模型也是不断更新发布,功能越来越强大,对常见的物体几乎都可以做到实时准确的检测,对应用场景相对简单的视频分析与对象检测提供了极大的方便与更多的技术方案选择。tensorflow object detection提供的预训练模型都是基于以下三个数据集训练生成,它们是:
OpenCV学堂
2018/07/26
1.2K0
使用Tensorflow Object Detection API实现对象检测
行人检测--OpenCV与TensorFlow SSD对比
OpenCV行人检测我们使用HOG特征提取+SVM训练,使用默认API检测,详细了解可参考:https://zhuanlan.zhihu.com/p/75705284
Color Space
2020/01/13
3.4K0
行人检测--OpenCV与TensorFlow SSD对比
Faster RCNN 基于 OpenCV DNN 的目标检测实现
在前面已经测试过 YOLOV3 和 SSD 基于 OpenCV DNN 的目标检测实现,这里再简单实现下 Faster RCNN 基于 DNN 的实现.
AIHGF
2019/05/13
1.1K0
Faster RCNN 基于 OpenCV DNN 的目标检测实现
推荐阅读
相关推荐
tensorflow Object Detection API使用预训练模型mask r-cnn实现对象检测
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档