腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
face
API
获取
嘴唇
的
颜色
、
Face
API
给出了
嘴唇
的
坐标,但我们能具体得到
嘴唇
的
颜色
吗?
浏览 4
提问于2017-12-12
得票数 0
1
回答
如何在固定边界内
获取
像素并改变像素
的
颜色
、
、
、
我正在
使用
openCV库来检测
嘴唇
和眼睛等面部特征,我已经在
嘴唇
和眼睛上绘制了点。现在我想要
获取
嘴唇
内
的
像素,并需要通过滤色器更改这些像素
的
颜色
。我知道
嘴唇
所在
的
坐标,
使用
这些坐标,我如何获得
嘴唇
内部
的
像素,如何更改
颜色
,以及如何更改
颜色
以反映在原始图像上。请参阅附件中
的
屏幕截图-
浏览 0
提问于2013-11-13
得票数 0
2
回答
如何分离和重新着色特定
的
颜色
范围?
、
、
、
给出一个包含
嘴唇
和其他“噪音”(牙齿、皮肤)
的
区域
的
图像,我们如何才能隔离和重新着色
嘴唇
(模拟“唇膏”效果)?附件是一张描述
嘴唇
/嘴巴状态
的
照片。到目前为止,我们尝试
的
是三个部分
的
过程:
使用
嘴唇
上
的
稳定点(由内部
API
提供)来匹配
嘴唇
。isolation.Recolor
使用
此
颜色
作为
嘴唇
的
浏览 2
提问于2021-08-09
得票数 5
1
回答
如何
使用
PIL放大图像
的
某个部分?
、
我
使用
了一个名为人脸识别的模块来创建任何照片上
嘴唇
的
轮廓,并希望修改图片以仅看到
嘴唇
而不是整个脸。然而,我不知道该怎么做。我曾尝试将
face
_landmarks转换为numpy数组,然后显示它,但意识到它只显示
嘴唇
的
坐标。all facial features in all the faces in the image
face
_landmarks_list =
face
_recognition.
face
_landm
浏览 25
提问于2019-01-16
得票数 1
1
回答
将人脸细节识别为一组点,而不仅仅是矩形
、
、
我在做情感识别领域
的
研究。为此,我需要捕捉和分类特定
的
面部细节,如眼睛、鼻子、嘴巴等。标准
的
OpenCV函数是detectMultiScale(),但它
的
缺点是返回矩形列表(),而我主要感兴趣
的
是特定关键点-嘴角、上下点、边缘等()。 那么,他们是怎么做到
的
?OpenCV是理想
的
,但其他解决方案也可以。
浏览 2
提问于2012-01-26
得票数 0
回答已采纳
1
回答
在matlab中从人脸中提取
嘴唇
区域和参数,以便用于唇同步。
、
、
、
、
大家好 我正在用Matlab做我
的
项目。为此,我将
使用
嘴唇
提取算法,它将从给定
的
面部图像中提取
嘴唇
区域。为此,我
使用
了基于
颜色
的
分割,通过它可以获得
嘴唇
区域。这给了我唇部区域。然而,我没有得到
嘴唇
参数。因此,我将不得不
使用
一个标准
的
嘴唇
进行唇同步。也就是说,不管素描可能有什么样
的
嘴唇
,我们都必须
使用
相同
浏览 1
提问于2011-03-03
得票数 2
1
回答
如何创建纹理以覆盖在增强
的
面部网格上?
、
、
、
、
我正在
使用
ARCore和Sceneform开发一个AR应用程序。我想添加纹理面部标志,如鼻子,
嘴唇
,脸和眼睛。我想知道如何创建纹理,以便我可以将其覆盖在增强
的
面部网格上?build() AugmentedFaceNode f
浏览 19
提问于2020-08-13
得票数 3
1
回答
如何利用视觉框架快速提取外唇特征点
、
、
、
我实现了addFaceLandmarksToImage函数来裁剪图像
的
外部
嘴唇
。首先将外唇
的
归一化点转换为图像坐标,采用查找点
的
方法得到最左、右、上、下
的
点,并通过剪裁提取出外唇,并在处理后
的
图像视图中显示。这个函数
的
问题是输出不像预期
的
那样。另外,如果我
使用
另一张图片,然后是在下面的链接中
的
图片,它会对图像进行裁剪,然后是外部
嘴唇
。I不知道我哪里出了问题,是否应该
使用
另一种方法(
浏览 2
提问于2019-11-20
得票数 1
2
回答
OpenCV
嘴唇
分割
、
、
、
一旦找到嘴巴区域,人们通常如何提取
嘴唇
的
形状(在我
的
例子中
使用
haar级联)?我尝试了
颜色
分割和边缘/角点检测,但它们对我来说非常不准确。我需要找到中间
的
两个角和上下
嘴唇
。我听说过一些关于主动外观模型
的
事情,但我很难理解如何在python中
使用
它,而且我没有足够
的
上下文来弄清楚这是否是检测
嘴唇
不同部分
的
传统方法。这是我最好
的
选择,还是我有其他选择?如果我
浏览 0
提问于2012-01-13
得票数 5
回答已采纳
1
回答
如何从人脸检测特定对象并实时添加图像?
、
、
、
我想在实时摄像头打开
的
视图上
使用
OpenCV来改变
嘴唇
的
颜色
或眼睛
的
视网膜
颜色
。我应该遵循什么?以及如何通过本地库在我
的
应用程序中
使用
?如果你
的
英语不好,请推荐...sorry。
浏览 0
提问于2019-05-16
得票数 0
1
回答
使用
ML Kit Swift编辑图像中的人脸轮廓
、
、
、
、
我
使用
谷歌
的
ML Kit面部轮廓
API
构建了一个IOS应用程序,用Firebase ML Kit识别图像中
的
面部特征,可以在这里找到:https://codelabs.developers.google.com/codelabs/mlkit-ios/#0 我
的
下一步是编辑脸部
的
轮廓,比如改变
嘴唇
的
颜色
,让眼睛变亮。你知道我在哪里可以找到关于如何做到这一点
的
参考吗? 我
浏览 17
提问于2020-01-04
得票数 0
回答已采纳
2
回答
如何用计算机视觉识别人脸
、
、
我正在
使用
face
_recognition python包来处理人们
的
图像并检测他们脸上
的
地标。我如何才能用地标来唯一地识别一张脸?是眼睛、鼻子、
嘴唇
和下巴之间
的
距离吗?它在我们每个人身上有什么独特之处?
浏览 10
提问于2022-07-15
得票数 -2
回答已采纳
1
回答
用Dlib Swift绘制多边形
、
我正在和swift一起
使用
for dlib。我可以用dlib库画线条,画点。但是,在用dlib库绘制线条后,我找不到一种方法来填充。 我想换一下
嘴唇
的
颜色
。我尝试和CALayer一起
使用
,但是速度太慢,而且不像dlib那样实时。有没有可能在dlib中填充
颜色
?
浏览 0
提问于2017-06-14
得票数 0
1
回答
使用
PIL裁剪和保存面部地标
、
、
我正在
使用
这个GitHub库from PIL import Image, ImageDraw
face
_landmarks_list =
face
_recognition.
face
_landmarks(image) d.polygon(
face
_landmarks
浏览 0
提问于2018-11-19
得票数 0
回答已采纳
1
回答
Python脚本(main) + Blender "
face
“动画
、
、
、
、
因此,我实际上正在做一些非常类似于这个用户帖子
的
事情:基本上,我有一个功能良好
的
python脚本,根据我
的
语音命令,通过相应
的
操作来回答我。(
获取
电子邮件、天气预报、开/关灯等),它是用相当不错
的
pyspeech库制作
的
。
浏览 2
提问于2012-08-13
得票数 2
回答已采纳
2
回答
Emacs lisp:
获取
面部
的
RGB组件?
、
我最近切换到Emacs
的
主干和region
的
脸
颜色
被改变了。如果不知道以前是什么,我就不能把它改回来。(get-
face
-background-rgb 'region) ;; "f9b593
浏览 6
提问于2014-02-05
得票数 1
回答已采纳
1
回答
如何对脸进行预处理?
、
我正在尝试写一个脸对齐器作为预处理步骤,然后再把我
的
脸输入神经网络。我(
使用
Python)通过dlib实现了回归树集合来预测人脸地标性估计,发现了人脸
的
地标。我尝试了几种不同
的
转换,但都没有用。,右),cropped_image =imagetop:底部,左:右,:.copy() #
获取
脸
的
姿势pose_landmarks =
face
_pose_predictor(cropped_imagenp.expand_dims(landmarks,=cv2. transfor
浏览 3
提问于2017-03-22
得票数 2
1
回答
我想
使用
arcore for unity中
的
增强脸部示例将纹理应用到面部
、
在谷歌I/O'19关于增强面部和图像,他们说reference_
face
_texture.PNG用于绘画或将纹理应用于面部
的
特定区域,例如
嘴唇
,脸颊等,但我找不到这个参考面部纹理,所以我可以在Photoshop中
使用
它将纹理应用到我想要应用
的
精确区域,然后
使用
增强面部arcore中
的
面部跟踪器应用新创建
的
纹理。
浏览 18
提问于2019-08-03
得票数 0
1
回答
如何制作带有实时贴纸
的
自定义相机
、
、
、
、
我正在制作一个带有人脸检测功能
的
自定义摄像头,工作成功。 rectF.set(
face
.rect); }}
浏览 58
提问于2016-11-07
得票数 19
1
回答
是否可以
使用
iOS ARKit提取面部不同区域
的
颜色
值(例如平均RGB)?
、
、
、
、
是否可以
使用
iOS ARKit提取面部不同区域
的
颜色
值(例如平均RGB)?我见过在由三角形块组成
的
面部覆盖三维网格
的
例子。是否有任何一种针对区域
的
颜色
过滤,例如提取RGB平均值、直方图、最大值/分钟值(与CIFilter在正常frameS上所允许
的
相同),但通过ARKit
的
三维人脸跟踪器?我也看到过ARFaceAnchor.BlendShapeLocation允许各种元素在脸上移动
的
系数。有没有提取网格(特
浏览 12
提问于2021-12-15
得票数 1
点击加载更多
相关
资讯
Hugging Face 或存在 API 漏洞,可让黑客获取模型库权限
Hugging Face 现 API 令牌漏洞,黑客可获取微软谷歌等模型库权限
Hugging Face 现 API 令牌漏洞,黑客可获取微软、谷歌等模型库权限
CSS@font face 的使用
用Azure上Cognitive Service的Face API识别人脸
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券