腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
ARCore
:
如何
获取
任意
像素
的
深度
(
与
摄像头
的
距离
)?
我有一个我认为是非常简单
的
需求,那就是每秒多次获得距相机
的
2d
距离
数组(就像LIDAR);例如,在屏幕上插值
的
10x10样本数组。我只想知道
像素
显示
的
距离
。我认为
ARCore
应该很容易做到这一点,因为它将所有
像素
与
过去
的
帧关联起来,所以它应该知道所有东西
的
位置。 我想我应该使用hitTest()来完成这个任务。我每秒可以调用hitTest() 100次。但是hitTest()通常不
浏览 32
提问于2019-05-23
得票数 1
1
回答
使用
ARCore
进行测量
、
我想知道是否有可能通过将相机对准物体而不像我们在谷歌测量中那样从左向右移动相机来测量物体
的
尺寸。
浏览 18
提问于2020-10-15
得票数 0
1
回答
在python中从iphone11pro
深度
图创建
深度
云很困难
、
、
我正在尝试理解
如何
从iPhone11pro (python)获得
的
深度
图中
获取
点云。我尝试使用一个在线exif工具来
获取
内部矩阵。0.0], [0.0, 3131.580078125, 0.0], [1505.6236572265625, 2004.1282958984375, 1]]对不起,我在这个话题上只有一些基础知识,如果有任何帮助,将不胜感激。下面是我尝试过
的
浏览 4
提问于2020-06-25
得票数 0
1
回答
当使用
ARCore
查找平面出现延迟时,
如何
使对象放置变得逼真?
、
、
在使用
ARCore
检测飞机时,会有一点延迟。这很好,但是当您想要在用户平移手机时将对象放置在平面上时,该怎么办呢? 通过延迟,在检测到飞机后,对象会弹出到屏幕上,而不是显示为平移,这是不现实
的
。
浏览 2
提问于2020-04-09
得票数 1
1
回答
我在P30 pro上使用ToF从Camera2 API中
获取
DEPTH16格式
的
深度
信息时遇到问题。
我目前正在用智能手机测试
深度
测量
的
选项,并想创建一个
深度
图像,最初是为了测试。我使用Camera2Basic示例作为基础。(https://github.com/android/camera-samples/tree/main/Camera2Basic)使用Depth16我得到了一个相对清晰
的
“
深度
图像”。但是毫米是不正确
的
。对于
距离
相机约500 an或800 an
的
墙等对象,它们<
浏览 76
提问于2021-04-27
得票数 0
1
回答
如何
在android中
的
单独线程上运行GLES20.glReadPixels?
、
、
、
、
我目前正在
与
ARCore
一起对图像进行分类,并将对象放在图像上。但是
ARCore
摄像头
似乎没有提供任何获得
像素
缓冲区
的
方法。然后我跨过,根据这一点,我们可以使用从OpenGL复制帧如果我一次传递每个帧,我
的
分类器就能正常工作,但是当我将GLES20.glReadPixels放在一个单独
的
线程中
获取
像素
缓冲区时,我将得到所有的零基本上它给了我黑色
的
形象。那么是否有一种方法可以在一个单独
的</e
浏览 4
提问于2018-02-13
得票数 0
回答已采纳
1
回答
ARCore
--
如何
将真实世界
的
物体放置在三维模型
的
前面?
、
、
、
、
我已经用
ARCore
Sceneform插件创建了一个Android应用程序。我能够在突出显示
的
平面上放置3D模型。但是,即使我把一个真正
的
物体放在相机前面(或者只是在镜头前挥动我
的
手),它也只能在3d物体后面可见。 我怎样才能把现实世界
的
物体放在Android
的
3D物体前面呢?
浏览 2
提问于2020-06-22
得票数 3
3
回答
如何
从kinect
深度
图像中获得
深度
强度,因为它表示
像素
与
传感器
的
距离
、
、
、
、
最近我读了一篇论文,他们使用
深度
图像提取
像素
与
相机
的
深度
强度和
距离
。但是,据我所知,
深度
图像中
的
每个
像素
值代表mm范围内
的
距离
:0-65536,那么他们
如何
从
深度
图像中提取0到255范围内
的
深度
强度。kinect传感器返回uint16
深度
帧,其中包括每个
像素
到传感器
的
浏览 6
提问于2017-07-06
得票数 0
3
回答
ARCore
可以用来测量物体、房间、结构或不同区域内不同区域之间
的
距离
吗?
、
、
、
我知道下面的报价对于是非常正确
的
1.能像那样用来测量
距离
吗?
浏览 18
提问于2017-09-25
得票数 6
回答已采纳
2
回答
Android:
如何
从摄像机中
获取
原始图像数据
、
、
目前,我正计划开发一个应用程序,使用Android设备中
摄像头
提供
的
原始数据(
像素
2)。我使用
ARCore
获取
帧数据,如下所示:final Camera camera = frame.getCamera();这似乎不是我想要
的
原始数据。
如何
通过
ARCore
获取
原始图像数据?还
浏览 6
提问于2021-06-16
得票数 1
回答已采纳
6
回答
ARCore
中
的
相机校准(本征)参数
、
、
有没有类似于提供
的
从
ARCore
获取
摄像头
内部参数
的
方法?我试过在ImageMetadata中使用,但很明显这个常量实际上并不受支持(我试过在Pixel2上使用它)。
浏览 0
提问于2018-01-04
得票数 7
2
回答
深度
API支持
的
设备
、
我真的很想开发一些
ARCore
应用程序,它使用新
的
Google高级API。但是我意识到只有几个设备支持这个新功能。那么,将来是否有任何关于更新
的
信息来支持今天由
ARCore
支持
的
设备,而不是支持
深度
API
的
设备呢?
深度
API
的
官方支持是由Pocophone F1提供
的
。它使用更高级
的
MIUI作为操作系统,并与Snapdrae845一起运行。 现在
的
问题是:为什么
与
浏览 5
提问于2020-06-26
得票数 4
1
回答
用
深度
图找出两个人之间
的
距离
假设我可以有这张图像
的
深度
图。  ?  在
深度
图
的
帮助下,我可以测量相机之间有红色矩形
的
男人和相机之间有红色矩形
的
女人
的
距离
,但我
如何
测量他们之间
的
距离
(男人和女人都是用红色矩形画
的
)。这可以用
深度
图来完成吗?谢谢
浏览 53
提问于2020-04-01
得票数 0
1
回答
如何
在
Arcore
中对齐
深度
和颜色?
、
我正在为我
的
P30Pro编写一个小
的
安卓应用程序,在其中我想要在彩色图像中找到一个对象(面部,视觉标记,...)然后利用飞行时间相机得到
的
密集
深度
图像得到它
的
相对位置。为了同时跟踪相机,我运行
ArCore
并使用SharedSession通过frame.acquireDepthImage()访问彩色图像和
深度
图像。(两者都工作得很好,我得到了高分辨率
的
彩色图像和120x160
深度
的
图像) 对于彩色图像,我通过camer
浏览 15
提问于2020-12-20
得票数 2
3
回答
项目探戈应用程序向后兼容支持
ARcore
的
安卓设备吗?
、
、
、
我注意到,谷歌似乎用一种名为
ARcore
的
东西取代了他们
的
探戈项目,我想知道,支持
ARcore
的
设备是否也可以
与
原本打算
与
探戈项目设备一起使用
的
应用程序一起使用。
浏览 12
提问于2017-12-12
得票数 3
1
回答
未对齐误差(
像素
)
、
、
我有两个相机,考虑到它们在同一点上
的
位置,我已经校准了相机。但实际上,摄像机
的
位置
与
校准时考虑
的
位置略有不同。这导致了一个视差错误。现在,当我用这两个
摄像头
捕捉一个点时,由于视差,我得到了图像中
的
未对准,现在我想以
像素
为单位计算这种未对准。 我试着用m来计算错位。Z(测量)=Z(校准)+ (Du /tan a1 + tan a2) Z(测量)是凸轮到物体
的
实际
距离
,单位为m。Z(校准)是相机到校准标记点
的
<
浏览 1
提问于2017-05-30
得票数 0
1
回答
到传感器位置或传感器平面的Kinect
深度
图
距离
、
Kinect通过测量点
与
每个
像素
的
传感器位置之间
的
3D欧几里得
距离
来创建
深度
图。然后,可以将该
深度
图重新投影到3D相机空间,例如,如中所述 特别是,投影点
的
z坐标被设置为该
像素
的
测量
深度
,这在我看来是错误
的
,因为它意味着
深度
是作为
与
传感器平面的正交
距离
测量
的
,而不是作为到传感器位置
的
三维欧几里
浏览 14
提问于2017-12-23
得票数 0
3
回答
在Kinect中测量
、
、
、
我正在尝试开始使用Kinect,它有一个
深度
感应
摄像头
,但我还没有看到测量宽/高/长
的
指南。这是不是需要计算出物体离相机(
深度
传感器)
的
距离
,以及在这个范围内Kinect
的
视场,然后计算出物体占据了多少
像素
?我希望能够从点云中创建网格或其他东西,但我在计算从哪里开始以及
如何
为对象获得适当
的
宽度/高度测量时遇到了麻烦。
浏览 1
提问于2011-06-22
得票数 13
1
回答
如何
获得以毫米为单位而不是
像素
为单位
的
校准精度?
、
、
我想知道相机校准状态
的
精确度,单位是毫米。换句话说,2D图像中
的
X
像素
误差(均方根误差)
与
3D对象坐标系中以毫米为单位
的
距离
对应
的
是什么?在OpenCV中,我可以根据calibrateCamera函数
的
均方根误差(
像素
单位)获得校准
的
精度。或者,我可以通过使用projectPoints将对象点重新投影到图像并将它们
与
当前图像点进行比较来手动计算。 例如,假设我得到
的
RMS误差约为2
浏览 1
提问于2017-09-26
得票数 0
2
回答
如何
使用
ARCore
识别该框?
、
、
、
、
我希望使用
ARCore
、ViroCore (或OpenGL)和OpenCV来识别某个盒子(如纸盒),并显示盒子
的
宽度、
深度
和高度。 能自动识别这个盒
浏览 0
提问于2018-03-26
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券