腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
从
ARKit
场景
中
获取
ARFrame
、
、
我是iPhone应用程序开发的新手(但有其他语言的经验丰富的开发人员),我正在制作一个
ARKit
应用程序,其中我需要跟踪图像的位置并在此图像周围显示一个矩形。我可以用在C++
中
做这件事,并制作适当的“桥接”类,以便能够
从
swift调用这段代码。现在,我需要从
ARKit
获取
图像并将它们传递给此函数。 如何
从
ARKit
场景
中
调用处理
ARFrame
的函数?我发现我可以
从
sceneView.session.
浏览 2
提问于2017-12-06
得票数 3
回答已采纳
1
回答
ARKit
4-
获取
.obj文件上的真实纹理(或任何其他3D格式- .ply / .usdz)
、
、
、
我正在尝试
从
ARKit
场景
重建网格
中
获取
我正在创建的三维模型
中
的纹理。我可以在一个.obj文件中导出网格。该框架还创建了.mtl文件。然而,在网格
中
没有颜色。我想添加真实世界的纹理到网格,可能从
arFrame
.capturedImage使模型看起来更真实。我怎样才能做到这一点?
浏览 2
提问于2021-01-16
得票数 5
2
回答
匹配自定义
场景
工具包渲染的ARSCNView转换?
、
、
、
、
TL:DR 我试图在MTKView
中
呈现一个SCNRenderer,这样我就有了颜色/深度缓冲区的句柄-并且我试图匹配ARSCNView通过
ARKit
完成的转换,这样我的SCNRenderer就可以像有没有人有通过ARSCNViews提供的
ARFrame
/ARCamera和info匹配
ARKit
世界和人脸跟踪配置的例子-并适当地修改SCNSCamera的转换?我想要匹配
ARKit
正在做的事情-但是当我尝试使用
ARFrame
/ ARCamera信息来修改我的
浏览 16
提问于2019-05-09
得票数 2
1
回答
Project方法:将rawFeaturePoint转换为屏幕空间
、
、
嗨,我正在努力理解当我使用
ARKit
的projectPoint函数时返回给我的值。我的目标是取一个点,p = (x,y,z),其中元组
中
的所有值都在范围[-1, 1]
中
,并将其转换为p' = (x',y'),其中对
中
的所有值都在范围[0,1]
中
,即从世界空间到屏幕/图像空间的项目。我知道
arframe
.camera.imageResolution = (1920.0, 1440.0),我知道我的屏幕大小是(390.0 ,844.0) 所以,当我使用
浏览 1
提问于2021-12-10
得票数 1
回答已采纳
1
回答
苹果
ARKit
--
从
CGImage
中
创建一个
ARFrame
、
、
我想使用
ARKit
从
图像
中
获得光的估计值。我能够
从
视频
中
的帧
中
检索到光的估计值。var SceneView = new ARSCNView();CGImage img = new CGImage("my file.jpg");
ARFrame
frame = new
ARFram
浏览 0
提问于2017-11-21
得票数 0
1
回答
如何在
ARKit
1.5上
获取
镜头位置
、
在
ARKit
1.5之前,我们没有办法调整相机的焦距,
获取
镜头位置总是返回相同的值。然而,在
ARKit
1.5
中
,我们现在可以通过设置ARWorldTrackingConfiguration.isAutoFocusEnabled来使用自动聚焦。我的问题是,有没有办法
从
ARKit
获得当前的镜头位置,这样我就可以在我的虚拟物体上应用失焦效果?我查看了一些可能存储此信息的类,如
ARFrame
或ARSession,但它们似乎没有这样的字段。我偶然发现了,操作员说他可以通过使用一
浏览 0
提问于2018-05-11
得票数 0
1
回答
如何在
ARKit
中
获取
“光不变”`capturedImage`?
、
我想拼接
ARKit
()提供的多张背景图片。(我知道有更好的方法来完成这项任务,但我使用的是我的自定义算法。)我注意到
ARKit
为每个
ARFrame
提供了具有和属性的。还有属性。这些属性是否可以用于“标准化”捕获的图像,以便
场景
中
对象的颜
浏览 0
提问于2020-08-06
得票数 3
1
回答
表达式的选择器类型是不明确的,没有更多的上下文。
、
、
我正在尝试使用选择器
获取
ARSessionDelegate方法,但是我得到了这个错误:表达式的类型不明确,没有更多的上下文#selector(ARSessionDelegate.session(_:didUpdate:) as ((ARSessionDelegate) -> (ARSession,
ARFrame
) -> Void)) public protocolARSessionDelegate : ARSessionObserver { optional func session(_ sess
浏览 11
提问于2022-10-05
得票数 1
回答已采纳
4
回答
来自
ARKit
的深度数据
、
、
可以
从
AVDepthData访问
ARKit
吗?
ARFrame
包含相机的图像,但不包含其深度信息。我试图创建一个单独的AVCaptureSession来接收AVDepthData,但是我无法与
ARKit
同时运行AVCaptureSession。
浏览 14
提问于2017-08-15
得票数 4
回答已采纳
5
回答
从
ARKit
获取
RGB "CVPixelBuffer“
、
、
、
、
我正在试着
从
苹果的
ARKit
上买一部RGB色彩空间的CVPixelBuffer。在ARSessionDelegate的func session(_ session: ARSession, didUpdate frame:
ARFrame
)方法
中
,我得到了
ARFrame
的一个实例。我在iOS上找到了关于颜色转换的,但我无法在Swift 3
中
使用它。
浏览 0
提问于2017-06-07
得票数 13
2
回答
几种具有
ARKit
的QR码
、
、
、
阅读和的文档表明,
ARKit
能够识别已知的图像。但是,对图像的要求使我怀疑应用程序在使用几个QR代码时是否会像我们希望的那样工作: 由于QR代码不完全符合要求,我想知道是否有可能使用大约10个QR代码,并让
ARKit
识别每个QR码。
浏览 0
提问于2018-10-26
得票数 0
2
回答
CapturedImage
中
的
ARFrame
到纵向/垂直
、
CapturedImage in
ARFrame
是横向/横向的。我怎么才能把它改成肖像呢? 谢谢
浏览 5
提问于2017-11-08
得票数 3
回答已采纳
1
回答
如何使用无相机延迟的
ARKit
和视觉工具包iOS Swift
、
、
、
、
我使用
ARKit
的脸地标位置和视觉套件框架的手的姿势。当用户单击
ARKit
按钮时,我能够成功地打开相机,并且能够切换到visionKit框架。但问题是,在相机之间切换的速度很慢。
浏览 5
提问于2022-08-04
得票数 0
回答已采纳
2
回答
ARKit
:特征点检测时通知?
、
、
和其他人解释了当
ARKit
检测到锚点或平面时如何获得通知,但是当
ARKit
检测到特征点时如何获得通知?
浏览 0
提问于2018-06-07
得票数 0
1
回答
在
ARKit
中
设置ARCamera曝光时间
、
、
、
、
我正在努力开发一个使用
ARKit
的应用程序。为了让应用程序实现其主要用途,即跟踪人脸,良好的光照条件至关重要。在AVFoundation
中
,有一个设置自定义曝光时间的函数。但是我没有找到在
ARKit
中
设置它的方法。我刚刚找到了get对象frame.camera.exposureDuration。那么,如何使用
ARKit
设置曝光时间呢?我必须在哪里调用这个函数?func session(_ session: ARSession, didUpdate frame:
ARFrame
) {
浏览 1
提问于2020-04-24
得票数 2
2
回答
ARKit
人物遮挡样本是如何完成的?
、
、
、
、
这可能是一个晦涩难懂的问题,但我在网上看到了许多非常酷的示例,展示了人们如何使用
ARKit
3
中
的新
ARKit
人物遮挡技术来有效地将人物与背景“分离”,并对“人物”应用某种过滤(参见)。通过查看苹果提供的源代码和文档,我发现我可以
从
ARFrame
检索segmentationBuffer,如下所示; let image = frame.capturedImag
浏览 2
提问于2019-07-20
得票数 3
1
回答
iOS
ARKit
如何保存
ARFrame
.capturedImage文件?
、
、
、
我正在尝试将相机图像
从
ARFrame
保存到文件
中
。图像以CVPixelBuffer的形式给出。我有下面的代码,它产生的图像与一个错误的高宽比。我得到4320 × 5763,4320 × 3786 let orientation = UIInterfaceOrientation.portr
浏览 5
提问于2021-02-14
得票数 0
回答已采纳
1
回答
Apple Vision -可以
从
静态图像
中
获取
相机位置吗?
、
、
、
、
事实上,我真正想做的是检测静态图像
中
的形状(使用现有的云托管的开放式cv应用程序),并使用
ARKit
在AR
中
显示这些形状。我希望我可以在静态图像和AR视频馈送
中
显示相同的图像目标。
浏览 30
提问于2020-06-29
得票数 2
1
回答
摄像头权限被拒绝,当前
ARFrame
不为空
、
、
我有一个
ARKit
应用程序,需要
获取
当前
ARFrame
对象的capturedImage并使用它进行进一步处理。我的代码大致如下所示: return现在,我希望帧仅在设置
ARKit
浏览 0
提问于2018-01-05
得票数 2
2
回答
当添加14个具有强引用的ARSCNView子类对象时,ARAnchor冻结
、
、
、
、
但是,当我使用anchors.append(anchor) ( anchors是[MyAnchorSubclass] )时,
场景
在增加14个锚后就会冻结。如果我没有在数组中保存锚,
场景
视图就不会冻结。最后,发生了什么-- renderer(_:didUpdate:for:)被调用了,在它的
场景
视图冻结之后,日志中出现了很少的[Technique] World tracking performance更新1 有趣的事实:当应用程序返回到后台后,sessionWasInte
浏览 4
提问于2017-08-02
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从机器学习中获取价值的正确姿势
vlookup应用——如何从学号中获取班级信息
如何从机器学习数据中获取更多收益
uCPE体系架构:从最小足迹中获取最大价值
物联网案例:从传感器数据中获取价值
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券