MediaPipe人手坐标点检测模型可以根据用户输入的图片或者视频,进行人手21个关键点的检测,并输出相关的关键点的坐标。
MediaPipe人手坐标点检测模型可以识别人手的21个关键点。MediaPipe人手关键点检测模型共有三种输入模式:
MediaPipe人手坐标点检测模型包含2个模型:
当我们使用MediaPipe人手坐标点检测模型时,其模型后台是调用了以上2个模型。由于运行手掌检测模型比较耗时,因此在视频或直播运行模式下,Hand Landmarker人手检测使用一帧中手部位置模型定义的边界框来定位后续帧中的手部区域。仅当手部检测模型不再识别手的存在或无法跟踪帧内的手时,手部关键点检测模型才会重新触发手掌检测模型。这减少了 Hand Landmarker 触发手掌检测模型的次数,有效降低了运算量,提高了运行速度。(基于CPU延时17.12ms,而GPU模式延时12.27ms)
代码实现人手21个关键点检测
在运行本节代码前,首先需要安装python以及MediaPipe库。并下载人手关键点检测模型hand_landmarker.task。
然后准备一张需要检测的图片或者一段视频,并输入如下代码:
HandLandmarkerResult包含三个组成部分。每个组件都是一个数组,其中每个元素包含单个检测到的手部结果:
领取专属 10元无门槛券
私享最新 技术干货