看到题目之后,我觉得大多数读者和我一样,一脸懵B,但不要紧张,且听我慢慢分解。
不安分的Lytro最近发布了名为“Lytro Volumn Tracer”(Lytro VT)的产品,它作为一套强大的工具可以用于CG 3D场景的光场体的创建,同时能够为用户提供视觉高质量以及完全沉浸式的VR体验。
Lytro VT可以使用任何DCC和渲染引擎(例如Maya和VRay)来生成一组3D场景的2D采样。
首先,Lytro VT将虚拟相机放置于CG场景中,虚拟相机包含场景中任何可能的视角,需要注意的是这些场景已经包含在定义好的光场体中,并且虚拟相机可以根据需要调整以最大限度地提高显示质量和性能。
渲染引擎用于追踪场景中的虚拟光线,并从设备中每个摄像头捕获一定数量的2D图像样本。Lytro VT通过追踪从每个被渲染的像素到其相机的原点的光线(光积跟踪)来创建视觉体,通过以上神操作就可以感受到沉浸式的光场VR体验。
以上是由1000个视点组成的视觉体。在该视觉体中,VR HMD中的观看者可以体验具有最高级别的光线追踪光学效果,每个方向上完美的视差以及六个自由度(6DOF)的重建CG场景。
光线跟踪的样本包括对颜色和深度信息(RGBZ等数据)的跟踪。摄像机的数量及其配置取决于场景的视觉复杂程度以及播放过程中所需视图的预定大小。
Lytro VT处理来自于该2D样本的颜色以及深度信息,并通过Lytro Player创建用于在VR中展示的光场体。
该3D场景中的视图体由白色立方体表示。单个相机由绿色球体表示,它具有自己单独的视点。虚拟的Lytro VT摄像机包含有成百上千个独立的摄像机。2D场景样本渲染使用虚拟装备中每个独立像机进行光线追踪。
以上是一个相机跟踪的来自于场景中5个不同位置的光线的局部放大图,通过对每个独立相机进行光线跟踪就可以重建光场。
在将来,Lytro VT与渲染可以和并为一个无缝过程,允许光场直接进行光线跟踪,而不需要2D图像样本的中间步骤。然而这是需要代价的,这一过程需要很强的渲染器集成,并且要放弃这个如今如此灵活的Lytro VT。
作为从虚拟3D场景创建真实2D图像的渲染技术,光线追踪能够产生极高质量的图像。用最简单的术语来说,基于模拟光线与3D场景中的物体表面的相互作用,反映在2D图像平面就是被渲染的彩色像素。
光线追踪适用于精确渲染某些光学效果,例如如反射,折射和散射(光度),但这些需要大量的计算时间。
具有全光学效果的光线追踪对于实时帧率而言简直太慢。但是不得不说,光线追踪非常适合需要最高级别图像质量并可以脱机的应用,如电影视觉效果。
上图为光线跟踪的过程:通过虚拟相机的视角可以看到,虚拟相机跟踪到了物体与物体之间的光线反复反射,并最终到达光源的位置。
如果有些物体遮挡了光线,那么就会产生被遮挡的光线。这种技术的计算效率很高,因为它只需追踪相机通过虚拟镜头看到的光线路径。
Lytro VT和光线追踪是相辅相成的,然而在光线追踪的概念方向上形成对比。
如上所示,光线跟踪通过跟踪从固定摄像机向外看光线的路径,从而呈现图像中的彩色像素。
相反,Lytro VT通过从一个视觉体内的每个视点向内朝着观察者,去追踪来自每个渲染像素的光线来重建光场体。
于是在Lytro Player中,观众在这些密集的光线的移动,沉浸在具有最高级视觉质量的重建CG场景中,并且在每个方向都具有完美的视差和六个自由度。
在这种体验中,光线不是实时呈现,而是从大量预先渲染的光线中实时获取,为视图体积内每个位置的每只眼睛组成一张图像。