腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
1
回答
这个3D体积是在哪个软件中可视化的?
、
、
、
、
我读了一篇论文,看到了他们3D体积分割的非常好的可视化效果。 你知道他们用什么软件对体积进行三维重建吗? 我已经完成了分割,并希望用python可视化它。在GitHub或在线上有没有我可以使用它来可视化的共享代码? 感谢您的帮助
浏览 6
提问于2018-09-15
得票数 0
2
回答
从多角度运动的结构
、
我使用OpenCV从多个视图(图像)中提取3D模型。我到了一个阶段,输入是两幅图像,结果是重建三维模型的三维点。 我想结合两个以上的图像,以全面重建从所有的观点。因此,我有一个3D点描述的图像1-2和三维点描述的图像2-3。如何将两个三维点数组合并成一个完整的三维模型。 有什么建议吗?
浏览 4
提问于2014-02-18
得票数 2
回答已采纳
1
回答
Matlab摄像机校准工具箱主点像素索引
、
、
、
、
我想使用,但我找不到主点,即相机内部函数的c_x和c_y (参见),是否使用从1开始的标准Matlab索引(参见)或从0开始的索引,例如在OpenCV中。有人知道吗?
浏览 1
提问于2015-09-01
得票数 1
1
回答
在二维图像中将二维开启键转换为三维
、
、
、
、
我正在使用从图片/视频的公开中获得2d关键点 提取的person/human被传递给openpoe作为关键点 for dirname, _, filenames in os.walk('/content/extracted_roi'): if (len(dirname.split('/'))) == 5: out_json_folder = os.path.join('/content/output_json', dirname.split('/')[-2], dirname.split('/')[-1
浏览 5
提问于2022-05-19
得票数 0
1
回答
使用OpenCV中的变换矩阵手动校准图像
、
、
、
、
我需要了解相机的校准是如何工作的。我没有足够好的基础知识。谁能帮助我理解如何将校准数据应用于使用相机拍摄的图像,而我已经有相机矩阵、旋转和平移矩阵以及失真矩阵等校准矩阵。我用opencv得到了所有这些,但我真的不明白它是如何工作的。阅读一些教程有所帮助,但仍然不够好。请帮帮我!提前谢谢你,苏米特
浏览 1
提问于2014-11-19
得票数 0
1
回答
用Python、OpenCv或Numpy求两行的中点和它们之间的距离
、
、
、
、
我正在尝试用python和numpy制作一个车道跟踪系统。 我已经进步到了照片上的程度,我手里拿着三行这样的 假设我使用的代码是这样的 import cv2 img = cv2.imread("D:/object_detection/images/siyah.jpg") cv2.line(img, (778, 519), (957, 693), (255,0,0),6) cv2.line(img, (218, 632), (445, 477), (255,0,0),6) cv2.line(img, (137, 485), (17, 516), (255,0,0),
浏览 3
提问于2022-03-10
得票数 -1
1
回答
3D立体声,坏的三维坐标
、
我用立体视觉来获得三维重建。我在用opencv库。我用这种方式实现了我的代码: 1)立体校准 2)图像对的不失真和校正 3)视差图--使用SGBM 4)三维坐标计算depht图--解出reprojectImageTo3D(); 结果: -Good视差图和良好的三维重建 -Bad三维坐标值,距离不符合现实。 三维距离,相机与物体之间的距离,误差为10 mm,且随距离的增加而增大。我使用了各种各样的基线,而且总是出错。当我比较外部参数,向量T,输出的"stereoRectify“基线匹配。所以我不知道问题出在哪里。 有人能帮我一下吗?谢谢。 CAlibration:
浏览 5
提问于2014-10-26
得票数 1
回答已采纳
2
回答
基于TUM基准的带有姿态图的ElasticFusion Slam算法
、
、
、
我从下载了Freiburg桌面数据集,并将其转换为slam算法的自定义格式'.klg'。我将这个klg文件加载到ElasticFusion并运行SLAM算法。三维重建输出看起来已经足够好了。 现在我想通过已经建立的轨迹信息来进行三维重建。我从'.freibrug'中检索了以前运行的轨迹数据,并通过ElasticFusion将其转换为所需的格式。我只是把时间戳从秒改为微传感器,把它乘以1000000。并使用、"而不是“”空格“拆分变量。这次我用"-p“标志和路径信息运行算法到弹道文件。下面是我的跑步命令。 /path_to_EF/./El
浏览 11
提问于2017-07-31
得票数 1
回答已采纳
1
回答
利用视差映射FInding Z坐标
、
我找到了两幅立体图像的视差图。现在我必须编写一个OpenGL代码来可视化它,用于三维重建。 OpenGL有vertex3f()函数,其中提到了三个协调函数。 二维是图像上的点。 那么如何利用视差图来寻找z维数呢? 请对此提出建议。
浏览 2
提问于2014-10-15
得票数 2
回答已采纳
1
回答
投影矩阵P_left和P_right中的重投影矩阵Q
、
通常需要重投影矩阵Q(4x4)和视差值(即像素移位)从共面立体图像对生成点云,共面平面允许在同一极线上搜索视差。如果给出了单个投影矩阵P(4x3),如何获得矩阵q,或者是三维重建的另一种途径?
浏览 3
提问于2015-06-02
得票数 3
2
回答
用OpenCV进行x射线图像三维重建所需的信息
、
、
任何人都知道一个很好的出发点来检查,从X射线图像/2D图像使用OpenCV的三维重建。我试图使用nodejs和js版本的OpenCV来完成这个项目。我基本上试着从二维X射线图像中重建骨骼结构(多个视图可用)。欢迎使用开源代码(python/c/c++)/算法/指南/任何东西。 谢谢
浏览 6
提问于2016-01-21
得票数 1
回答已采纳
1
回答
如何使用pyntcloud库将点云转换为网格
、
、
我正在学习如何使用pyntcloud库,但是已经陷入了将点云转换为网格的困境。根据在线文档,Delunay3D结构是可用的,但我不知道如何使用它。 有一个"convex_hull“结构可以生成一个网格,即使它没有显示在docstring中。不过,我不想要一个封装的网格。 from pyntcloud import PyntCloud my_pointcloud = PyntCloud.from_file('my_pointcloud.ply') mesh_id = my_pointcloud.add_structure('delaunay_3d') 应
浏览 1
提问于2019-01-06
得票数 1
1
回答
tangoApplication.m_3drResolutionMeters可以在运行时被更新吗?
在实验的三维重建中,我想在运行时调整网格的分辨率。虽然我可以轻松地通过脚本更新值,但它似乎不会影响实际的啮合过程。是否有调整此值的方法,或者Tango服务是否锁定了它在启动时所具有的任何分辨率?
浏览 2
提问于2016-03-16
得票数 0
回答已采纳
1
回答
如何用真实世界的物体遮掩他们面前的三维物体?(探戈、团结)
、
到目前为止,我所见过的所有探戈应用程序和演示都有一个主要的限制:3D物体总是“在”真实世界的相机图像的“顶部”。它们被正确地放置在3D空间中,但是虚拟对象前面的真实对象不会重叠它! 问:是否有可能用面前的真实世界的物体实时掩蔽3D物体或其部分? 理论上,探戈传感器提供的3D数据应该足以做到这一点。但我想知道以前是否有人这样做过,或者是否存在着性能限制,使这一切变得不可能?谢谢你的建议!
浏览 3
提问于2017-05-13
得票数 1
回答已采纳
1
回答
基于2个视图的3d重建
、
、
我正在做一些从两个视图的三维重建和固定已知相机焦距的研究。对我来说不清楚的是,三角测量给了我们一个物体的真实世界尺度,还是结果的尺度与实际不同?如果比例尺与实际大小不同,如何从中找出点的深度?我想知道是否有更多的信息,我需要创建一个真实世界的对象尺度。
浏览 3
提问于2016-01-17
得票数 0
3
回答
从两个二维点重建三维点?
、
OpenCV包含了对立体声摄像机三维重建的大量支持。在我的例子中,我有两个摄像头,我想知道某个点的三维坐标。 我所拥有的: 两幅图像上点的像素坐标 已知的内、外部摄像机参数 我想要的是:在3D中协调这一点
浏览 7
提问于2012-05-24
得票数 7
1
回答
如何从视差图中提取物体的深度?
、
、
我有一个立体声相机设置,我试图生成一个三维重建的场景。我能够从图像中获得视差图。在得到视差图后,我无法理解如何获得这一场景。我正在遵循提供的MATLAB教程。有人能帮我一下吗?我已经上传了我所有的文件。
浏览 0
提问于2016-04-27
得票数 0
回答已采纳
1
回答
为什么我的声卡没有被阿尔萨检测到?
、
、
操作系统: ubuntu 22.04 VGA : Radeon RX 570系列 我有主板声音输出。我没有HDMI输出的声音。HDMI是连接到我的图形卡,其中RX 570。 lspci显示已经检测到音频卡。lspci图像 但是在声音设置下声音设置 pactl显示,波纹管设备是我的操作系统唯一可以使用的卡。$ pactl list short sinks 0 alsa_output.pci-0000_09_00.4.iec958-stereo module-alsa-card.c s16le 2ch 44100Hz IDLE 我不知道为什么"snd_hda_intel 00
浏览 0
提问于2023-03-04
得票数 0
2
回答
如何从两幅图像中三维重建场景
、
、
、
、
我想做一个场景的3D重建。为此,我有两张从两个不同角度拍摄的场景图像。有没有这样的库呢?(我在python中工作)如果不是,那么必须遵循的步骤是什么?如果你已经准备好了代码,欢迎使用。谢谢
浏览 0
提问于2015-02-24
得票数 1
2
回答
断层扫描三维重建
、
、
、
我必须为学校做一个项目,我不知道从哪里开始。我需要从你做完断层扫描后得到的图像做一个三维重建。此外,在图像将被重建后,我需要提供一个工具,以便用户可以像他想要的那样切片器官,这样他就可以看到他制作的切片。 任何帮助都是非常感谢的。谢谢。
浏览 6
提问于2012-03-30
得票数 0
回答已采纳
1
回答
来自2d图像的3d
、
、
、
在我房间的中心,我有一个摄影师,我有来自不同角度的相机的图像,比如这个,在这里,1摄像机,2,3,4视角。如何从所有这些图像进行三维重建?需要你的帮助。我找不到好的样本和图层如何解决我的问题。我想使用emgu(opencv).But,我确信它是correct.What,你能给我建议吗?需要所有的信息
浏览 3
提问于2014-02-23
得票数 0
回答已采纳
1
回答
光流运动结构
、
、
、
假设我有一个录音机的录影带。我想用运动技术的结构来构造记录场景的点云。首先,我需要追踪一些要点。 哪种算法能产生更好的结果?使用稀疏光流(Kanade-Lucas-Tomasi跟踪器)或密集光流(Farneback)?我做了一些实验,但不能真正做决定。他们每个人都有自己的长处和弱点。 最终的目标是获取现场记录的车辆的点云。通过使用稀疏光流,我可以跟踪车辆的有趣点。但这将是相当不可预测的。一种解决方案是在图像中建立某种网格,并迫使跟踪器跟踪每个网格中的一个有趣点。但我觉得这会很难。 通过使用密集的流,我可以得到每个像素的运动,但问题是,它不能真正检测只有很少运动的汽车的运动。此外,我怀疑该算法产
浏览 5
提问于2016-06-29
得票数 4
1
回答
如何减少读和写的处理时间
、
、
、
我正在用Matlab中的并行计算进行三维重建。我分析了我的代码,发现imread和imwrite占用了大部分的处理时间。我的目标是大大减少处理时间,因为我的模拟涉及大量数据集和迭代。我的代码: projection_length = 4100; parfor q = 1:projection_length tmpData = zeros(1600, 500); for i = 1:500 fname= sprintf('pre%03d.tif', i); tmpData(:, i) = imread(fname, 'Pix
浏览 1
提问于2015-05-27
得票数 0
回答已采纳
1
回答
基于深度图的三维点重建(带有摄像机参数)
、
一般性导言: 我的图像A和B是用相同的相机拍摄的(其中我知道内部参数K)。然后,我开始寻找F矩阵,并由此得到本质矩阵。由此,我恢复了完整的相机矩阵P和P‘。 然后,我对这两幅图像进行了校正,并计算了一幅深度图,如下所示: 我的问题 现在我想用深度图进行密集的三维重建。现在还不清楚的是,我应该用什么摄像机矩阵来重新投影点,P或P'? 还是又一次转变?P和P‘是A和B的相机矩阵,但现在我正在考虑用A和B的修正版本创建深度图
浏览 2
提问于2014-09-15
得票数 3
回答已采纳
1
回答
不同尺寸图像的校正
、
、
、
、
我想纠正一个立体图像对来自两个不同的模式(视觉和热)。我用 [cameraParams,imagesUsed,estimationErrors] = estimateCameraParameters(imagePoints,worldPoints); 给我一个stereoParameter对象,因为imagePoints包含匹配的两种模式的棋盘点。 为了进行纠正,我使用了以下调用: [J1,J2] = rectifyStereoImages(I1,I2, cameraParamsStereo); 其中I1是视觉图像,I2是热图像。不幸的是,这给了我一个错误: 使用rectifyStereoI
浏览 2
提问于2015-09-16
得票数 2
1
回答
ARKit摄影测量
、
、
、
、
在过去的一个月里,我一直在研究从现场视频中重建3D的方法。在我看来,唯一的选择是使用第三方服务,比如Agisoft或Autodesk Capture。但是,在ARKit 2.0发布之后,我看到了这个。在这条推文中,Tim声称他使用ARKit摄影测量技术创建了三维模型。据我所知这是不可能的。我只使用ARKit扫描三维物体和创建点云。实际上,这正是所做的: 只包含ARKit识别现实世界对象所需的空间特征信息,而不是该对象的可显示的三维重建。 如果Tim所说的是真的,我如何使用ARKit创建三维模型使用摄影测量?
浏览 2
提问于2018-07-11
得票数 3
1
回答
跳跃运动传感器的深度分辨率
、
、
问题 我已经读到,跳跃运动传感器应该能够测量0.01毫米的手势。如果深度图像仅仅是8位图像,我看不出这是怎么可能的(每幅值0.01毫米的256个值只会产生一英寸的测量范围,这显然不是这样)。我已经阅读了飞跃运动传感器的API,我没有看到任何可配置的设置,例如,产生16位深度图像,我希望从一个声称0.01mm测量的传感器中获得这种图像(关于这个要求,请参阅 )。,有人知道如何增加深度图像的深度吗? 问题的上下文 我正在尝试使用一个跳跃运动传感器作为一个廉价的3D扫描仪。我想用它来测量3D打印机头的位置和倾斜。我认为我可以伪造更好的分辨率,通过分析多个点的表面,但如果有可能获得16位分辨率的深度图
浏览 3
提问于2015-09-30
得票数 1
回答已采纳
3
回答
Matlab三维重建
、
、
、
最近,我不得不在这两周内做一个多视图三维扫描的项目,我搜索了所有的书籍,期刊和网站的三维重建,包括数学作品的例子等。我写了一个代码来跟踪两个图像之间的匹配点,并将它们重建为3D图。但是,尽管使用了detectSURFFeatures()和extractFeatures()函数,仍有一些对象点未被跟踪。我如何在我的3D模型中也重建它们?
浏览 8
提问于2014-04-11
得票数 5
1
回答
摄像机内参数
、
、
我正在尝试进行三维重建的三角测量,我发现了一个有趣的观察结果,但我无法证明这一点。 我有两组图像。我知道它们之间的对应关系,并且我正在使用直接的线性变换来找出内在和外在参数。虽然我能够正确地重建原始场景,但即使照片是从同一相机拍摄的,内部参数也是不同的。如果摄像机是相同的,怎么可能有不同的内部参数呢?另外,如果内部参数不同,我如何能够完美地重建场景? 谢谢
浏览 4
提问于2020-04-27
得票数 0
1
回答
旋转和小摄像机运动下的场景重建
、
、
、
、
我试着用单摄像机实现某种物体的深度测量,它安装在门的旋转中心附近。其基本思想是在门前(摆起时)检测物体,如果门不能完全打开,则创建一个碰撞警告。 有一些问题我必须处理: 小运动:相机从0°-90°旋转,只有有限的平移(由于相机的位置)。 照相机镜头为鱼眼(AOV ~100°垂直和180°水平)。 我试过的是: 运动结构: 即使一个完整的序列(从0°-90°旋转),我只得到一个非常糟糕的场景重建。由于相机的小运动,我相信这种方法很难取得好的效果(特别是因为我不能使用完整的视频序列来警告碰撞)。 假立体重建: 我使用了两张连续的图像,对它们进行了校正,并试图生成一个视差图。
浏览 5
提问于2015-10-13
得票数 0
1
回答
如何使用opencv对齐多个摄像机图像
、
、
、
想象一下,有人从相机里拍出一张爆裂的照片,他会有多张照片,但由于没有使用三脚架或支架,所以拍摄的图像会略有不同。 我如何使它们对齐,使它们整齐地覆盖并裁剪出边缘。 我已经搜索了很多,但是大多数的解决方案要么是进行三维重建,要么是使用matlab。 例如 由于我对openCV非常陌生,所以我更喜欢一个易于实现的解决方案 我在MSPaint中通过手动旋转和裁剪图像生成了许多数据集,但是任何包含相应数据集(稍微旋转和转换的图像)的链接也将是有帮助的。 编辑:我在这里找到了一个解,给出了旋转和平移向量的近似值。 我怎么能做得比这更好呢?
浏览 3
提问于2014-03-09
得票数 7
回答已采纳
1
回答
通过点对应检测/校正照片翘曲
、
、
、
、
我意识到有很多蠕虫与我的要求有关,但我必须从某个地方开始。基本上我想问的是: 给出两张用未知相机拍摄的场景照片,我能在多大程度上确定照片之间的(相对)偏差? 下面是1904年世界博览会的两张照片。它们是在无线电报塔的不同层次上拍摄的,因此摄像机或多或少是垂直排列的。我的目标是从这些照片和其他照片中创建一个该地区的模型(如果这很重要的话,在Blender中)。我没有寻找一个完全自动化的解决方案,例如,我没有问题,手动挑选点和功能。 在过去的一个月里,我教会了自己关于射影变换和极几何的知识。对于一些对照片,我可以通过从点对应找到基本矩阵F来做得很好。但下面这两件事给我带来了麻烦。我怀疑有某种扭曲-
浏览 4
提问于2016-12-29
得票数 0
1
回答
无棋盘的Android相机标定
、
、
、
我知道有一些关于这个话题的帖子,但我找不到答案。 我想校准我的android相机没有棋盘的三维重建,所以我需要我的内在和外部参数。 我的第一个目标是提取三维真实系统,以便能够将一些3D模型放到屏幕上。 My step : 从一张建筑物的图片中,我提取了代表真实三维系统的4个点。 /!\此步骤需要摄像机校准/!\ 将它们转换为3d点(例如solvePnP) 然后,从我的三维轴创建一个OpenGL投影和模型视图矩阵 我的主要问题是,我想避免一个校准步骤,那么如何校准没有棋盘?我有一些来自android的数据,比如焦距。我可以猜到投影中心是我相机照片的中心。 有什么主意或建议吗?
浏览 3
提问于2013-09-13
得票数 4
1
回答
用OpenCV在杯子上求点高度
、
、
、
假设我想找到一个杯子的三维旋转位置,像这样输入图像(这个杯子可以旋转到任意方向): 假设我有一堆2D点,指定上圆和下圆,如下所示。(让我们假设这些点是由一个在杯子周围画线的人给出的,所以不会很准确。)可能需要椭圆拟合或SolvePnP来恢复一个良好的近似。底部的圆不是一个完整的圆,它只是一个圆的一部分。有时顶部也会被遮挡,所以我们不能相信会有一个完整的圆圈) 我还知道顶部和底部圆的物理半径,以及它们之间的距离,通过使用尺子事先测量它们。 我想找到完整的2圈,像下面的图片(我想我需要找到杯子的位置和它的向上方向,然后才能投射出完整的圆圈): 假设我的最终目标是能够找到最接近
浏览 2
提问于2020-01-12
得票数 0
回答已采纳
1
回答
三维点云匹配
、
、
我有一个三维点云,我想匹配不同的点云相互识别的目的。OpenCV或Tensorflow是为我做的吗?如果是,怎么做? 示例: src1 = pointCloud of object 1 src2 = pointCloud of object 2 compare(src1, src2) 输出:两个点云都是同一对象或不同对象。 我想实现这样的目标。请在一些想法或资源方面提供帮助。
浏览 9
提问于2022-02-25
得票数 -1
2
回答
2图像,同一对象:音色差异和对齐
、
、
、
我想知道一个软件,帮助后期制作,以计算一般的颜色/色调差异的2幅图像。图像包含相同的对象,但arn并不是从相同的位置拍摄的。一张图片可能是晴天,另一张是多云,所以其中一张是橙色/黄色,另一张是灰色/蓝色,但对象相同。 你会如何对齐图像的色调? 背景信息:我拍摄了几百张照片,为我的模型制作纹理,物体在外面,所以天气条件可以随时改变,拍摄必须继续。我做摄影测量,所以我用这些图像把它们投射到几何上,然后用UV地图来烘焙它们。所以一般来说,我有一大块在阳光下拍摄的图片,另一张是在多云中拍摄的。我想应用一个色调所有的多云图像,有相似的色调,在阳光下的图像。 不是关于人类发展报告的。
浏览 0
提问于2013-12-17
得票数 2
回答已采纳
2
回答
你能用OpenCV solvePNP的等长线图像吗?
、
、
、
是否有可能使用OpenCV的solvePNP与等长方形图像?我有一个等长方形的图像,在这个图像中我有四个点(红点)和它们的像素坐标,然后我有四个相应的世界点,例如[(0, 0, 0), (2, 0, 0), (2, 10, 0), (0, 10, 0)],我如何估计相机的姿态? 我试过使用OpenCVs solvePnp,但这期望布朗相机模型的本质,所以没有工作。这能用球形相机吗?
浏览 11
提问于2020-02-11
得票数 33
1
回答
OpenCV立体匹配/校准
、
、
我最初在OpenCV论坛上发布了这篇文章,但不幸的是,我并没有收到太多的意见/回复,所以我在这里发帖子,希望有人能给我一个方向。 我使用的大黄蜂XB3立体相机,它有3个镜头。我花了大约三个星期阅读论坛,教程,学习OpenCV书籍和实际的OpenCV文档使用立体声校准和立体声匹配功能。总之,我的问题是,我有一个很好的差距地图生成,但非常差的点云,似乎倾斜/压扁,并没有代表实际的场景。 到目前为止我所做的: 使用OpenCV stereo_calibration和stereo_matching示例: 用棋盘图像校准我的立体声摄像机 1)原始场景图像: 2)利用摄像机标定后的矩阵对摄像机原始图像进行
浏览 0
提问于2013-10-06
得票数 10
1
回答
稀疏三维重建MATLAB示例
、
、
、
、
我有一个立体相机系统,我正在尝试这个MATLAB的计算机视觉工具箱示例()与我自己的图像和相机校准文件。我使用的是加州理工学院的相机校准工具箱()。 首先,基于第一个示例,我分别尝试了每个摄像机,并找到每个摄像机的内部摄像机校准矩阵并保存它们。我还使用Caltech工具箱消除了左侧和右侧图像的失真。因此,我注释掉了MATLAB示例中的代码。 以下是固有的相机矩阵: K1=1050 0 630;0 1048 460;0 0 1; K2=1048 0 662;0 1047 468;0 0 1; 顺便说一句,这些是来自大黄蜂XB3相机的右和中间镜头。 问:它们不是应该是一样的吗? 然后,我根据第五个
浏览 2
提问于2014-08-22
得票数 1
1
回答
Phong反射模型参数
、
、
、
、
问题:,有人能给我介绍一下用于网络摄像头的面部图像的Phong反射模型参数吗? 详细信息: 如本文所述,我使用三维形态模型对二维图像进行三维重建。 有一个成本函数需要用牛顿法进行优化。我需要给出牛顿法的初值。 下面的方程是图像的phong反射模型。显示了周围的、漫射的和反射的成分。 Phong参数: Ks,Kd,Ka,α,Lm,V 我正在用牛顿法估计上述参数。图像是人的脸,摄像机是网络摄像头. I给出了以下值: Ks = Kd = Ka = 0.6α=5 Lm =0.1 1V=0.0 1 有人能对上面的值进行评论吗?参数的初始化值可以是什么?
浏览 2
提问于2013-02-05
得票数 3
1
回答
物体的三维重建与运动
、
、
我读了很多关于3D重建的文章,因为我想用OpenCV为我的产品实现它。我想确认的一件事是,是否有可能对不断变化的场景进行三维重建。我会解释得更好。 所有的文章都谈到了一个移动相机或多个摄像机拍摄同一场景。所有这些镜头然后被转换成网格,通过使用特征作为连接点,这些网格被合并成一个。 用固定的相机和旋转的物体也可以做同样的事情吗?我觉得功能还能用,对吧?我唯一不确定的是背景的变化会不会是个问题。为了消除噪音,我需要识别和提取我想要重建的物体吗? 谢谢
浏览 0
提问于2013-12-26
得票数 0
回答已采纳
1
回答
如何在C++上可视化三维点
、
、
我正在开发一个使用Opencv和PCL的三维重建项目。在我的代码中,voxel由cv::Point3f坐标表示。 Voxel.hpp class Voxel { private: //3D Coordinates of voxel cv::Point3f coordinates; public: //constructor of voxel Voxel(float x, float y, float z); void drawVoxel(); }; Voxel.cpp //implement constru
浏览 4
提问于2015-12-09
得票数 2
1
回答
在Android中动态创建三维对象
、
、
、
、
在我的项目中,我正处于一个艰难的时刻,我不知道如何进一步推进: 我已经用openCV在一张照片中识别出一个物体,我想给它增加深度--现在的真实世界的测量并不重要。 我想增加深度,以便将构造的形状发送到3D打印机之后。 在使用opencv的Android系统中有这样的做法吗?再说一次,这不是三维重建-我有一张照片,我只是想给物体的深度,类似这样的: 我想要这样做,把相同的2D形状放在自己身上几次,它就能给出“深度”。 有什么建议吗?我应该用的图书馆?
浏览 6
提问于2014-02-24
得票数 2
回答已采纳
1
回答
基于视差图的距离测量
、
我正在用OpenCP和Python进行三维重建和距离测量。我为左边的相机生成视差图,然后用这个公式得到距离: D=(f*b/disp) 其中f是焦距,b是两个摄像机之间的距离,disp是视差图的矩阵。 我的问题是: 我得到的数字,它们应该是图片中每个点的距离吗? 使用这个方法我能得到的最大距离是多少(例如,在我的项目中,我得到的最大数是110)? img_L = cv2.pyrDown( cv2.imread(Li) ) img_R = cv2.pyrDown( cv2.imread(Ri) ) '''h, w = img_L.shape[:2] diff=(6,6,6
浏览 6
提问于2014-05-10
得票数 4
1
回答
基于多视角的三维重建
、
、
、
、
我有一个电脑视觉问题重建: 我有多视角和一个无标记相机(从我知道fx = fy = f,s=0,以及参数不变) 我可以从不同的观点来匹配的观点都在一个共同的平面上。我还可以从场景中匹配4条不同的线条(比如L1,L2,L3,L4) 结果表明:L1与L2平行,L3与L4平行,L1与L3 (和L4)呈正交关系。 我有足够的视图(9)和足够的点(6没有角的4行)。 我想用我写的所有信息来减少噪音,我被要求用归一化图像(我不知道这意味着什么)来计算一切,以减少数值误差。 并给出了两个匹配点之间的距离。 它要求:重建场景(全部6个三维点),重建摄像机内部参数(ux,vx和f),并重建图像的摄像机位置。 所
浏览 0
提问于2015-02-15
得票数 0
1
回答
提高小图像冲浪性能的研究
、
、
、
、
我在网上遇到的每个SURF的实现似乎都很难从小图像中提取有用的兴趣点(例如,100 x100或更少)。 我尝试了几种方法: 1)在分析之前,使用各种提升算法(从简单的最近邻算法到更高级的算法--基本上是每一种高级图像)来增加小图像的大小。 2)其他图像处理方法,如对比度增强和使用不同的RGB权重计算积分图像等,对图像中的特征进行了提取。 3) (重新)压缩,假设压缩伪影主要出现在现有特征周围,增加了它们的相对“表面积”。 然而,所有这些都没有对从小图像中提取的兴趣点的数量产生任何可测量的影响。 还有什么值得尝试的吗?还是冲浪对小图像不好,对吧?如果是的话,还有哪些其他算法更适合这些算法呢?
浏览 4
提问于2013-02-23
得票数 2
1
回答
特征匹配困难
、
、
、
我在一个3d重建项目中工作,在那里我有困难匹配的功能,以便继续重建。具体来说,当matlab的例子图像的im匹配特征时,我有很高的正确率和错误的匹配率,但是当我自己用手机相机拍摄的照片的im匹配特征时,我几乎只有错误的匹配。我试过调高门槛,但问题仍然存在。对于出了什么问题,有什么想法吗? 描述符im使用的是vlfeat工具箱中的sift描述符。 编辑:是一个带有原始图像、检测到的突出点/角点和匹配的dropbox链接。
浏览 3
提问于2017-03-03
得票数 3
回答已采纳
1
回答
MATLAB的estimateUncalibratedRectification用数学方法表达了什么?它精确地计算了什么?
、
、
、
、
MATLAB的用数学/几何术语做什么? 它精确地计算了什么? 据我所知,如果相机参数未知,那么只有才能从两幅图像中计算出基本矩阵,而不是的本质矩阵。 因此,据我所知,estimateUncalibratedRectification的结果在某种程度上应该是模棱两可的,因为基本矩阵--如果相机的内在参数未知的话,可以从两幅图像中计算--在任意投影变换之前是模糊的。 这是对的吗? 我的猜测是,estimateUncalibratedRectification计算image1的射影变换P1和image2的另一个射影变换P2时,在相应的图像上使用这两个转换(P1和P2)时,结果图像(R1和R2)将被纠
浏览 2
提问于2015-03-10
得票数 1
回答已采纳
1
回答
基于单个图像的三维人脸重建
、
、
、
、
我想用单个图像进行三维人脸重建,我搜索了一下,发现了 .This链接使用以下值进行三维重建: const cv::Point3f modelPointsArr[] = { cv::Point3f(-1.030300, -0.41930, -0.38129), cv::Point3f(-0.493680, -0.38700, -0.55059), cv::Point3f(+1.030300, -0.41930, -0.38129), cv::Point3f(+0.493680, -0.38700, -0.55059), cv::Point3f(-0.36
浏览 2
提问于2017-05-13
得票数 0
1
回答
摄像机矩阵评价
、
、
、
我做了一些相机校准,从多视角图像的三维重建。我想把我的结果和相机矩阵的基本真理进行比较。我使用了来自:的恐龙数据集 我想知道什么是最好的方式来匹配相机投影矩阵来对它们进行评估。如果对摄像机矩阵进行评估比对三维点进行评价要好的话。
浏览 3
提问于2014-05-13
得票数 0
回答已采纳
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于深度学习的三维重建算法综述
3D Slicer之肾肿瘤三维重建
A.I三维重建算法构出了“金山银山”
物体三维重建技术,带你进入全新世界
100行Pytorch代码实现三维重建技术神经辐射场(NeRF)
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券