腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
红外
图像
中
裁剪
物体
。
Rstudio
/
Python
、
我使用的是
Python
/
Rstudio
。此外,在删除不必要的部分后,我愿意获得新
图像
的像素/强度。任何帮助都将不胜感激。Please check one of the image This is somehow what I want to crop 更新: 我试图根据我
从
精明的边缘检测器得到的边缘来
裁剪
主要的
图像
。有没有办法根据边缘来
裁剪
主
图像
?请检查图片。Liver Image Canny Edge Detection
浏览 33
提问于2019-09-18
得票数 1
回答已采纳
1
回答
如何构建真实的“
红外
视觉”效应?
你将如何使用着色器来构建真实的
红外
视觉效果?说到现实,我指的是看起来很现实的人,就像这个例子。
浏览 0
提问于2013-11-25
得票数 20
回答已采纳
1
回答
使用ARCore进行测量
、
我想知道是否有可能通过将相机对准
物体
而不像我们在谷歌测量
中
那样
从
左向右移动相机来测量
物体
的尺寸。
浏览 18
提问于2020-10-15
得票数 0
1
回答
如何在室外和室内获得光照不变的近
红外
(NIR)人脸
图像
?
、
、
、
它使用ov7740相机模块,滤光片通过850 nm和近
红外
LED。由于阳光的影响,室内和室外拍摄的
图像
有很大的不同。例如,学生在室内会变白,但在室外就不会。有人说,室内
图像
可以通过微分运算
从
室外
图像
中
恢复出来。因此,我在室外通过打开和关闭近
红外
发光二极管得到了两张
图像
,然后得到了一张差分
图像
。但那是非常暗的照明,所以我怀疑微分操作是否适合在室内检索
图像
。即使这是正确的方法,被减去的太阳光
中
的近<em
浏览 2
提问于2014-12-15
得票数 0
1
回答
在C#
中
通过
裁剪
边缘
从
图像
中提取对象
、
我正在尝试使用AForge.net
从
图像
上的背景
中
裁剪
对象。我已经使用cannyEegeDetector检测了
物体
的边缘,但我不知道如何使用检测到的边缘来
裁剪
它。你有什么想法
从
背景
中
裁剪
物体
吗?
浏览 3
提问于2012-08-13
得票数 0
1
回答
基于
红外
图像
的人脸检测
、
、
我使用的是FLiR的160x120像素
红外
摄像头(Lepon3.5),我想用它来检测人脸,这样我就可以从一个人的脸上获得温度数据。然而,我很难找到一个在
红外
图像
中进行人脸检测的预训练程序。如果没有,谁已经成功地训练了haar级联(或其他算法)来检测
红外
图像
中
的
物体
/人脸?干杯
浏览 4
提问于2018-10-24
得票数 1
1
回答
在检测到视频流
中
的对象后,我想
裁剪
并保存这些对象
、
、
我在视频
中
检测到了
物体
,我想
裁剪
这些
物体
。我尝试过tensorflow API,但它们都不适用于我。当尝试tf.image.crop_to_bounding_box(
图像
,offset_height,offset_width,target_height,target_width )时,它告诉我offset_height因此,我需要一个如何使用tensorflow
从
图像
中
裁剪
对象的指南。
浏览 1
提问于2018-10-30
得票数 0
1
回答
Kinect是正射模式还是透视模式?
我想知道Kinect是在orthographic还是perspective mode
中
捕获颜色、深度和
红外
图像
?
浏览 1
提问于2017-11-27
得票数 1
回答已采纳
1
回答
裁剪
和调整
图像
大小以训练支持向量机
、
、
我使用HOG+SVM来使用OpenCV(
Python
)来检测同一类的对象。我正在遵循Udacitiy检测车辆的项目的一个例子:访问。在本例
中
,他们使用车辆的准备数据集,其中包含
裁剪
和调整大小的
图像
。我在问,有没有人想过
裁剪
和调整图片的大小,在同一张图片中包含
物体
和背景?或者如何标记
图像
并将其集成到上面提到的示例
中
?我使用的是Windows 10和
Python
3.6。 提前感谢
浏览 0
提问于2018-05-07
得票数 0
2
回答
裁剪
x射线
图像
以去除背景
、
、
我有很多次x射线扫描,需要从背景噪音
中
裁剪
被扫描的
物体
。 之后/
裁剪
后的
图像
:任何建议的解决方案/代码都将受到欢迎。
浏览 0
提问于2021-05-05
得票数 0
2
回答
用openCV检测
图像
中部分遮挡的矩形
、
、
我想在
红外
图像
中
检测一个矩形对象(一个黑色键盘)。背景非常干净,所以这并不是一个真正困难的问题,我使用了简单的阈值和OpenCV
中
的minAreaRect来解决它。我的手将覆盖
物体
的一小部分,就像这个案子。谁有更好的解决方案,也许是一种基于特征的方法?我不知道使用功能是否能改善这种情况,因为在这些
红外
图像
中
,
物体
大多是黑色的。
浏览 2
提问于2017-06-22
得票数 1
回答已采纳
1
回答
用于不同相机的stereoCalibrate (rgb和
红外
)
、
我在校准两个相机时有问题:第一个是rgb,第二个是
红外
线。他们有不同的分辨率(我调整大小和
裁剪
更大的
图像
),焦距等.示例:
红外
512x424 如何把它们校准成彼此?我应该在stereoCalibrate中使用哪些参数。对于RGB相机,我首先调整尺寸和
裁剪
图像
的分辨率匹配
红外
相机(512x424),然后校准。对于RGB相机,我得到camera.yml,对于IR相机,我得到camera_ir.yml。在调用stereoCalibra
浏览 0
提问于2014-04-05
得票数 3
回答已采纳
3
回答
如何用OpenCV探测
红外
光
、
、
、
、
我正在尝试使用OpenCV通过内置摄像头来检测
红外
点。我的照相机能看到
红外
线。然而,我不知道如何区分可见光和
红外
光。转换为RGB后我们无法区分,但也许OpenCV有一些方法可以做到这一点。或者,如果没有特殊的相机,就不可能区分可见光和
红外
光?
浏览 9
提问于2012-10-27
得票数 4
1
回答
在较大的
图像
中高效地找到
图像
的最佳位置
、
我有一个
图像
,它非常接近于另一个
图像
的
裁剪
版本。(相同位置的不同平均出来的
图像
,意思是用来降低移动
物体
的强度),我想知道在哪里
裁剪
更大的
图像
,以便
图像
适合。我已经尝试了在
图像
之间进行二维相关性,以找到相关性最高的点,并使用scipy.signal,correlate2d计算出位置,但效率非常低。 使用opencv加载
图像
并将其转换为numpy数组。有没有人能推荐一种用
python
做这件事的有效方法?
浏览 23
提问于2021-04-13
得票数 0
回答已采纳
3
回答
如何
从
kinect深度
图像
中
获得深度强度,因为它表示像素与传感器的距离
、
、
、
、
最近我读了一篇论文,他们使用深度
图像
提取像素与相机的深度强度和距离。但是,据我所知,深度
图像
中
的每个像素值代表mm范围内的距离:0-65536,那么他们如何
从
深度
图像
中提取0到255范围内的深度强度。这是我想要提取的图表(
从
论文中收集:
浏览 6
提问于2017-07-06
得票数 0
1
回答
使用grabcut (
python
)在
图像
中
查找对象的坐标
、
、
为此,我使用Grabcut
从
背景中提取主对象(龙虾)。但是,在这个步骤之后,我不知道如何为
裁剪
目的找到提取对象的坐标。我需要
裁剪
物体
以支持尺寸测量。我不知道是否: 这是原始
图像
这是Grabcut之后的输出
图像</e
浏览 2
提问于2018-01-02
得票数 0
回答已采纳
1
回答
OpenCV 2.4.3 -在
裁剪
图像
上具有反向同调的warpPerspective
、
、
当使用SURF在场景
中
查找参考
图像
时,我希望在场景
中
裁剪
找到的对象,并使用warpPerspective和反向同形矩阵将其“校正”回来。也就是说,假设我有这样的冲浪结果: 和“直”,只有
裁剪
的
图像
与warpPerspective使用反向同调矩阵。结果我的目标是,我将得到一个
图像
,粗略地,只有对象,和一些扭曲的剩菜
从
原来的场景(因为
裁剪
不是一个
浏览 7
提问于2013-05-16
得票数 4
4
回答
从
Wiimote转移到相机?
、
、
、
所以,我的问题是:我想找到一个C#.Net摄像头/视觉库,它可以让我跟踪相机视野
中
的点--可能是LED。在未来,我想移动到R/G/B点跟踪,以便更容易地跟踪和区分更多的点。有什么建议吗?
浏览 0
提问于2009-03-06
得票数 6
1
回答
我们需要
裁剪
图像
来应用Tensorflow对象检测API吗?
、
、
、
我试图探测到的
物体
非常小。应该
裁剪
图像
以删除
图像
中
不相关的对象。当我的模型被部署时,实时
图像
也将包含不想要的项目。为了训练目的,
裁剪
图像
是一种很好的做法吗?
浏览 9
提问于2022-05-18
得票数 0
1
回答
是否有可能从超级帧获取原始的
红外
图像
数据?
我正在使用java与探戈花生手机,我想知道是否有办法
从
RGB相机获得原始的
红外
图像
,深度传感器使用。我知道RGB相机
中
四分之一的像素是
红外
数据.我也知道,所有的4MP RGB
图像
被放入超级帧,然后转换为YUV。然而,目前还不清楚如何解码
红外
通道,或者在这一点上是否可能。如果它丢失在YUV的超级框架内,我还有其他方法可以取回原始的
红外
图像
吗?
浏览 4
提问于2014-09-03
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Opencv-python,一个多功能的 Python 图像处理库!
有没有像RStudio一样的Python编辑器
RStudio(一)RStudio入门
【科普篇】红外成像与热成像:傻傻分不清?快来一探究竟!
Python图像智能裁切:从基础到高级应用
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券