前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >HDR关键技术:色调映射(三)

HDR关键技术:色调映射(三)

作者头像
用户1324186
发布2018-07-26 16:55:31
2.8K0
发布2018-07-26 16:55:31
举报
文章被收录于专栏:媒矿工厂

摘要:

HDR技术近年来发展迅猛,在未来将会成为图像与视频领域的主流。如何让HDR图像与视频也能够同时兼容地在现有的SDR显示设备上显示,是非常重要的技术挑战。色调映射技术(Tone Mapping)就是用来实现将HDR源信号,转换到SDR源信号的技术。在本系列中,我们将会详细地总结色调映射技术的相关问题,并介绍经典的色调映射算法。将分为三个部分:(一)是色调映射技术的综合介绍;(二)是图像色调映射算法的总结与经典算法介绍;(三)将介绍视频色调映射算法。接前帖,Let's go ahead!

视频色调映射算法

视频色调映射算法与图像色调映射算法存在很大的不同。视频色调映射算法实际上是对一段连续的帧进行色调映射,与图像色调映射算法相比,两者之间最大的不同是视频色调映射算法需要考虑到,并且准确地处理相邻帧之间的相关性,即考虑时域特性。如果这种帧间的相关性,或者换言之,这种时域的联系没有被考虑到,或者设计的算法不能准确处理这种时域联系,那么,在经过色调映射之后,视频就会出现一系列的问题,例如帧间闪烁现象。这种情况下,视频的人工痕迹就会非常明显,视频的质量与观看体验就会大幅下降。而这种时域联系并非是视频色调映射算法面临的唯一问题。由于视频处理要处理大量的帧,因此计算的效率也是十分重要的一个方面。另外,由于不同的HDR获取设备使用不同的方式获取HDR视频,因此这些视频本身也存在差异。所以,想要设计出适应多种情况的高质量的视频色调映射算法,需要综合考虑多方面的情况。

1. 背景

尽管HDR视频的获取技术在2010年左右才相对成熟,视频色调映射算法早在这之前15年,就已经开始出现了。早期的视频色调映射算法都会涉及出固定的时域处理算法或者模型来处理视频的时域特征,但是这是不全面的。视频色调映射算法的最终目的,是建立一套自适应的模型,或者算法,来解决所有视频的时域问题。但是,由于早期缺乏高质量的HDR视频源,因此在当时无法精确地判断一个视频色调映射算法的性能。

随着HDR视频获取技术的发展以及新的HDR视频采集设备的使用,视频色调映射算法的性能可以得以检验。经过相关的调研 [2],我们发现,大多数的视频色调映射算法都存在相同的几类问题:人工痕迹过重,对比度缺失以及细节缺失。因此,在2010年之后,视频色调映射算法的设计已经逐渐转变为针对具体存在的问题,做出相应的调整与完善。而视频色调映射算法的设计目标,也被明确为:设计出与视频内容无关的高质量色调映射算法。

2. 时域特性

Boitard曾经提出过视频色调映射过程中可能产生的时域问题的类型,其中主要包括:帧间闪烁,时域对比度缺失以及物体不连贯 [3]。这些问题当中,我们主要关注全局与局部的闪烁现象以及鬼影现象,因为这三个问题,是视频色调映射过程中最常出现的时域问题。而其他的问题,例如时域对比度缺失以及物体不连贯,相较之下就容易处理得多,因为人们对于这些现象相对比较习惯。只要物体与对比度的变化是平滑的,那么,这些变化在人们看起来就是自然的,可以接受的,也就是说,这些问题并不会影响到人们的观看体验。而前面提到的三个主要的问题,全局与局部的闪烁现象以及鬼影现象,就会给人们带来很差的观看体验。因此,视频色调映射算法需要注重处理全局与局部的闪烁现象以及鬼影现象。

假设V:L->T代表一个由HDR视频到LDR视频的映射,如果这个映射

,其中

表示映射的输入内容是HDR视频,ϕ(V)是通过某些方式得到的图像与视频信息。在这种情况下,这个映射V就是一个与图像内容相关的映射。由于ϕ(V)在部分帧与帧之间会剧烈的改变,这样就会影响到色调映射算法的效果。体现在输出的视频上,就是会出现帧间闪烁的情况。

对于视频时域特性的处理,第一种方式是进行像素级的改变,也就是说对于图像的操作实直接对像素值进行改变。如我们在图像色调映射算法中所说的那样,全局色调映射算法会对所有的像素点使用同样的色调曲线进行映射。因此,想要在全局处理中保持帧间变化的平滑性,只需要将连续的帧的信息通过一个时域低通滤波器,其中使用的核记做

从上面的处理中我们能够发现,这种时域低通滤波,是一种非因果的操作。如果希望保证算法的因果性,我们可以只对时间t之前的帧,进行低通滤波。

而对于局部色调映射算法来说,情况就更加复杂。如果局部色调映射算法使用了一些局部的图像信息

,并且没有适当的处理这些信息,那么,就会造成图像在某些区域剧烈地改变,这就会造成局部视频闪烁的发生。而如果向上面的式子所述的那样,直接对每个像素进行低通滤波,去除全局闪烁,生成的视频往往会产生鬼影现象。一种可以选择的改变方式是不直接对图像信息进行滤波,而是对色调映射后的亮度信息进行低通滤波:

。这种操作既可以保证时域相关性,又可以尽量避免噪声干扰,但是,这却会产生动作的模糊。

为了使像素级的时域滤波避免动作模糊的影响,可以对滤波器的核用很大的时间梯度进行限制,例如使用边缘截止滤波器。但是,这种操作会造成更大的时间梯度上出现少量闪烁。也就是说,像素级的时域滤波天然存在很多问题与缺陷。往往解决了一个问题之后,都会产生新的问题影响视频的质量。因此,对像素级的时域滤波的一种直接的拓展,就是使用动作补偿时域滤波器,这种滤波器可以有效的过滤出动作在时间线上的轨迹。如果动作的预估是正确的,那么这样的滤波器就能够在时域滤波器的平稳阶段以及边缘都能够准确过滤出动作,并且防止动作模糊现象的产生。但是,在一些情况下,动作预测可能会出现错误,这种情况下,这种滤波方式就会产生失真。例如在产生了镜头突然切换的两帧之间,就会出现动作预测的错误。动作补偿滤波器的例子包括动作向量的块状匹配 [4],以及运用光流预测的滤波 [5, 4, 4]。

通过使用上述的这些滤波器,理论上来说,现在使用的图像色调映射算法都可以通过增加这些滤波环节,拓展为视频色调映射算法。这也是大多数现在的视频色调映射算法使用的手段。

除了滤波手段之外,第二种利用时间相关性消除视频色调映射过程中出现的失真现象的思路是将时域处理作为一种色调映射的后置操作。也就是说,在这种想法下,使用何种色调映射算法已经无关紧要了,在色调映射之后,利用连续的帧之间的全部与局部信息等得到时域的相关性,然后处理得到的视频,就可以得到消除了各种失真现象的视频。其中一种控制闪烁现象的方式是计算色调映射后每一帧的均值,然后在时域上对每一帧之间的改变做出限制 [6],或者将映射后的序列与原HDR序列进行比较 [7]。这些方式通过对不同的帧进行亮度的不同比例的缩放,达到平衡与消除闪烁的目的。但是,这些方法的局限性在于这些亮度的改变只能作用于整幅图像,所以只能调节全局亮度。如果想要调节局部亮度与局部对比度,那么,就需要使用其他的方法进行调整。

大部分调节局部对比度的后置操作方法都是基于动作域的光流预测 [8], [9], [10]。这些后置操作算法的好处在于,我们不用像之前一样去考虑色调映射过程是如何完成的,不用去考虑对于不同的色调曲线,需要对滤波器进行哪些改变或者是否需要增加其他操作。特别是对于一些已经进行了色调映射,但是存在失真现象的视频,由于不知道色调曲线是什么,所以很难去针对性地设计滤波器,但是后置操作对于这种情况就可以很好地适应。而这类方法的缺陷在于,对于局部对比度的呈现以及视频的实际效果来看,要弱于滤波器的方法。

3. 噪声

在前面的内容当中,我们把视频色调映射算法的设计问题基本介绍完了,我们可以通过两大类不同的方法来获取与利用视频的时域特性,然后将这种时域特性与图像色调映射算法结合起来,就可以实现视频的色调映射。但是,前面的算法与介绍都是在理想情况下进行的。在实际的生产与应用当中,我们还会遇到其他很多不同的问题,其中一个非常重要的问题就是如何处理噪声。

在HDR视频的获取过程中,HDR摄影设备会产生很多噪声,特别是在阴暗的环境下,产生的噪声更加多。这是由于为了获得更高的动态范围,摄像的曝光时间需要被严格限制。因此,在阴暗的环境下,想要在有限的光照条件下拍摄与捕捉场景中的阴影与黑暗的区域,就需要将摄影设备传感器的灵敏度调节得非常高。由于传感器灵敏度很高,这就会产生很强的传感器噪声。这些噪声在HDR视频当中基本是不可见的,所以并不会影响HDR视频的质量与观看体验。但是,经过了色调映射之后,这些噪声在LDR视频中会被大幅放大,从而十分影响视频的质量以及观看体验。噪声会在色调映射过程中被放大的原因在于,色调映射也是一种非线性的映射,它会将明亮区域的像素点的亮度降低,然后提升阴暗区域像素点的亮度。也就是说,在色调映射过程中,暗区的噪声被放大了。

为了缓解这些视频噪声,需要对视频进行相应的降噪处理。上一节提到的滤波器方法,可以在执行过程中增加部分操作与设计,这样就可以在色调映射的滤波过程中降低部分噪声 [11], [12]。但是,这种方法的问题是会额外增加很多的运算,并且并不能够在不使得画面失真的情况下完全去除噪声。并且,如果算法中使用的色调曲线对暗区的增益非常高,那么就会使得没有被去除干净的噪声,以及降噪过程中产生的失真现象被进一步放大。

为了使得噪声不会在色调曲线的映射过程当中显现,一种合理的做法是在了解了噪声特征的情况下,可以对色调曲线的形状进行严格的控制 [13], [14]。这种情况下,噪声虽然没有被消除,但是却隐藏在了暗区当中,不会被人眼发现,也就不会影响到人们的观看体验。这种方法可以与前面提到的降噪方法同时使用,这样就可以进一步的提高图像的质量与观看效果。

4. 算法综合介绍

视频色调映射算法的不同总体上体现在四个方面,包括:色调曲线,处理方式,算法目标以及时域滤波。同时,由于视频色调映射所需的运算量非常庞大,因此,运算速度也是一个重要的评价指标。

4.1 色调曲线

这是色调映射算法的核心。大部分色调映射算法,以及后面我们将要介绍的算法,主要使用以下几种函数作为色调曲线:线性函数,指数/对数函数,sigmoid/s-shaped函数以及基于灰度图的色调曲线。同时,还要少量色调映射算法在梯度域进行映射。

4.2 处理方式

处理方式主要分为两种。一种是全局映射,即对所有的像素使用同样的色调曲线进行映射。第二种是局部映射,在不同的空间位置,使用不同的色调曲线进行映射。

4.3 算法目标

色调映射的目的主要分为三类:visual system simulators (VSS), best subjective quality (BSQ) operators and scene reproduction (SRP) operators。 [15], [16]

4.4 时域滤波

时域滤波通常分为两类。第一类是在时域上对色调映射参数进行整体的滤波。第二类是在局部上对每个像素点进行时域滤波。

4.5 速度

视频色调映射算法的速度大致分为三个档次:离线,交互式,实时。划分的依据是算法的处理能力以及运算复杂度。实时的算法,可以提供超过20帧/秒的运算速度。交互式算法相对弱一些,每秒可以处理几帧。离线算法则速度更慢。由于算法的执行速度与图像的分辨率以及计算机的硬件水平也息息相关,因此这种划分方式也只是一个大概的划分,仅供参考。

5. 一些代表性算法简介

上一节中,我们对于视频色调映射算法的总体思路以及主要组成部分做了分别的介绍。本节,我们就要将注意力转移到具体的视频色调映射算法上,我们将会介绍一些具体的视频色调映射算法的思路以及实现方法以及主要特点。

5.1 视觉适应算法

[17]是第一个使用时域适应机制的视频色调映射算法。视觉适应算法利用了一系列视觉领域的心理与生理学研究结论建立了一个视觉相应模型。算法的核心方法是:threshold-versus-intensity 方程,这个方程之前大量的实验结果与数据,可以计算出人类视觉范围内的颜色变化,视觉敏感度(能够发现空间上的细节)变化以及时域适应性(时域上明暗变化)变化的阈值。

视觉适应算法的核心思想是,通过在背景亮度下预测出人眼能够感知的颜色,场景清晰度变化阈值,然后只对人眼能够感知到的变化部分,进行色调映射,从而在一定程度上减小了算法的运算量。同时,算法会对视觉敏感度以及时域适应性变化进行额外的处理。

5.2 时域适应算法

[18]这种算法充分利用了人类视觉模型的时间适应机制。通过在适应模型后增加一个表现模型,就可以模拟出一幅图像的响应。随后再使用逆表现模型与逆适应模型,就可以将图像显示在LDR显示设备上。

在适应模型中,图像中视锥细胞与视杆细胞的静态响应通过sigmoid函数被分别计算出,而时域适应性则通过指数平滑滤波器进行建模。并且算法加入了染色与漂白因子,用来对时域上的特征进行着色与漂白。

5.3 时域曝光算法

[19]这种算法首先提出了一种新的获取HDR视频的方式:在帧与帧之间,交替的改变曝光时间,从而增大视频的亮度范围。之后,为了创建出HDR视频,每一帧利用光流信息进行内插,从而为每一帧提供了两种不同的曝光度,实现了动态范围的提升。并且,针对这类HDR图像,文章中也提供了一种算法来对其进行色调映射,从而显示在LDR显示设备上。

这种视频色调映射算法基于一种经典的图像色调映射算法:Photographic TMO [20]。通过使用这种算法,再进行时域滤波,从而实现视频色调映射。Photographic TMO利用了sigmoid函数并设计了如下形式的色调曲线:

其中

,k表示几何平均数。由于帧与帧之间的平均数会剧烈的改变,从而造成闪烁现象。因此,为了解决闪烁现象,k会通过固定数量的帧得到,从而缓解闪烁现象,并且可以在时域上实现有效的统一滤波。

这里的s表示每幅图像中的每一个像素点,t表示一组连续的帧。ε是一个很小的常数,用来避免奇异值。同时,由于photographic TMO的计算成本很大,因此,Goodnight为这种算法设计了相关的GPU加速算法 [21],使得这种色调映射方法的计算时间大大缩短。

5.4 局部适应算法

[22]与时域视觉模型类似,局部适应算法同样利用了人眼的时域特性,并且使用了同样的方法,即利用sigmoid函数将视觉锥细胞与视觉杆细胞的的响应分开计算。但是,两者的区别是,为了获得局部响应,也就是局部细节,本算法中对每一个像素单独进行这种操作,而时域视觉模型针对每一帧整体进行操作。为了对局部适应性的时域特征进行建模,算法在时域上利用指数滤波器进行建模。并且对于视锥细胞与视杆细胞,明亮区域与阴暗区域,使用了不同的滤波器。

5.5 感知效应算法

[23]这种算法同样是建立在photographic TMO的基础上。这种算法的主要目的之一,是实现实时的局部色调映射。这种算法利用一些感知效应增强了photographic TMO的效果。由于photographic TMO需要通过建立高斯金字塔来获取色调映射的局部适应等级,基于这种框架的一些效应处理,只需要增加很少的计算量,就可以实现算法效果的增强。基于这种框架的优势,视觉敏锐度以及光幕照明等算法都被添加进了框架当中。

时域适应性则是通过指数衰减方程(exponential decay function)在时域的适应性等级上进行滤波。具体做法类似于Interactive walk-through TMO [24]。最后,为了提升算法的计算速率以实现实时映射,最终的算法实现使用了GPU加速。

5.6 梯度域算法

[25]该算法首先也是提供了一种全新的HDR视频获取方式。通过一种称之为:分离光圈相机的拍摄设备,这种设备包括3个CCD传感器相机,可以同时拍摄三种不同亮度范围下同一场景的图像,然后场景的实际亮度可以利用拍摄出的图像通过传统方法重现。而算法的实际目的是通过这种方式获得的HDR视频,来研究HDR视频在空间域与时域的特性。

对于色调映射算法来说,梯度域算法之前就有所研究。这种算法在不同的位置s处,以不同的比例k,利用比例因子

减弱图像的梯度

改变后的梯度域

(Φ是将所有k累加起来的比例因子)之后被用于利用泊松方程来计算色调映射后的T。

与原方法相比,这种算法的差别在于,这里的梯度域是三维的,其中两维表示空间,一维表示时间。解决这种三维泊松问题会使得结果具有时域一致性。但是,对于色调映射问题来说,处理过程中只对空间特性进行梯度减弱,因为如果进行了时域的减弱,就会产生运动模糊。

5.7 区域匹配算法

[26]这种算法的思想与梯度域算法类似,即色调映射在梯度域执行,并且梯度是三维的,两维表示空间,一维表示时间,梯度在计算过程中通过压缩得到减弱。与梯度域算法不同的是,梯度域算法只在空间域的两维上进行梯度减弱,区域匹配算法在时间域的维度上也进行了梯度减弱。为了在实现时间域梯度减弱的过程中不产生运动模糊,算法中又利用区域匹配以实现运动补偿,从而消减运动模糊的影响。

记像素点s处,从第t-1到第t帧的动作的估计向量为

,对应的代价函数为:

当上一帧的像素点的值与这一像素点在下一帧预计应该在的位置的像素点值存在差异时,代价函数的值就会增大,也就意味着这个运动估计是不可靠的。代价C会被用于泊松方程以平滑动作路径上的点的梯度。这样操作之后,就可以增强相邻帧之间的时域相关性,并减弱噪声。也就是说,这种算法不仅不会像之前的梯度域算法一样产生运送模糊,并且还可以减弱闪烁与时域不相关问题。

5.8 视网膜模型算法

[27]这种算法的思想来源与模拟人类视觉系统的处理方式,也就是视网膜的处理方式。在人眼对图像的的处理过程中,眼部细胞首先接受光感受器的响应,然后将刺激传递到神经节细胞,最后由视网膜进行空间域与时域的滤波,进而实现视觉的生成。这种算法模拟了视网膜的底层处理,包括局部适应性。

首先,利用sigmoid函数可以获得图像的局部响应,通过空间低通滤波器可以获得图像的局部适应等级。局部响应通过时空滤波器,可以模拟出Outer Plexiform Layer (OPL) [28]的处理方式。OPL滤波器可以被认为是两个低通时空滤波器的差,并且将频谱进行了白化滤波。也就是说,它将高频部分中的低频信号与低频部分中的高频信号进行了过滤。这种滤波器通过过滤高频部分,从而消减了噪声;并且通过过滤时域的局部适应等级,从而提供了更好的时域稳定性。在通过了时空滤波器之后,响应会通过神经节细胞响应模型,这个模型与算法的第一步很类似,都是通过sigmoid函数,区别是使用了不同的参数。

整个算法的最后一步是颜色的重建。在算法的最一开始,颜色信息会在初始化阶段,通过多路处理被提取出来。而在最后一步,颜色信息会被还原到图像当中。整个操作的目的是实现颜色的一致性,防止在算法中间的滤波过程中,对颜色信息产生不可逆的修改。这种思想,来源于视网膜的处理方式 [29]。

5.9 闪烁消除模型

[6]这种算法实际上并非完整的视频色调映射算法。这种算法的应用对象是已经经过色调映射的视频,模型通过检测与处理,可以将视频中存在的闪烁现象减弱或去除。

在色调映射后的视频序列中,首先检测是否存在闪烁现象。算法的检测方法是通过检测连续帧之间的k值之差是否超过了阈值H,来进行判断。其中,K值就是时域曝光模型中的k,而阈值则通过Steven’s Power Law [30]计算,

,a通过实验决定。

对于大于阈值的帧,亮度迭代地下降,知道帧的k值范围落在合理范围之内

。对于只存在全局亮度问题,也就是全局闪烁问题的色调映射后的视频序列,这种算法都是有效的。

5.10 时域相关模型

[7]除了时域闪烁之外,视频色调映射中海油两个潜在的需要注意的问题,一个是物体不连续问题,用于描述在色调映射物体的亮度变化问题以及由于不同的帧的统计信息不同,而导致的与原视频序列中物体的变化不一致的问题。第二个问题是亮度不连续,用于描述视频整体的亮度在时域上的改变,例如经过了色调映射后,原视频中亮度最高的一帧可能就不再是最亮的一帧。

为了使色调映射算法能够克服这些问题,Boitard等人提出了时域相关模型。这种模型与前一个提到的闪烁消除模型一样,也不是完整的色调映射算法,而是用于从色调映射后的视频序列中消除时域问题的一类附加修正算法。对于每一帧t,首先计算它在色调映射之前的k值

。计算完成后,利用全局系数τ将色调映射后的视频的每一帧的k值都固定位原HDR视频序列中k值的最大值,

接着再用一个调制系数,使得τ能够在很小的范围内浮动

由于这种算法也是一种附加操作,因此,这种算法也使用与所有只存在全局亮度问题的色调映射算法。这种算法利用了整个视频序列的信息来解决亮度问题,并且将每一帧都与原HDR视频进行比较。这样的操作会造成视频的整体亮度出现下降,因为为了保持视频亮度的相对不变,视频中的大多数帧的亮度在操作过程中都会下调。

5.11 混合模型

[31]混合模型顾名思义,利用了两种不同的色调映射算法对同一帧进行处理。首先,每一帧会通过directional filter bank edge-detection algorithm [32]进行处理,将图像分为包含剧烈改变的区域以及不包含剧烈改变的区域。包含剧烈改变的区域随后使用iCAM06 TMO [33]算法进行色调映射,这种算法通过局部操作保留了图像的细节。图像的剩余区域通过直方图校正算法 [34]进行处理。最后,为了保持视频的时域性质,映射后的帧的亮度会进行比例缩放,进而使得连续的帧之间的强度差值不会超过预先设定的阈值,具体操作类似于闪烁消除模型。

5.12 噪声感知模型

[35]这种算法用于处理视频获取过程中出现的噪声。算法的目的是利用一种有效的时域稳定的视频色调映射算法,在加强视频局部对比度的同时,不提升视频噪声,使视频噪声保持不可见。

算法中,利用式子:

实现局部色调映射,并且算法中还使用了一种特别设计的滤波器。这种滤波器基于标准的用于噪声消除的边缘保留滤波器,它可以在一些情况下找出图像中的失真区域。色调映射中的细节抽取则使用了不同的思路。为了能够抽取出图像的细节并且不引起失真,算法中使用了一种简化版的双边滤波以及各向异性扩散滤波。这种方法可以解决与0阶各向异性相关的重构问题。

对于色调映射来说,色调曲线用于将原始图像序列的全局对比度尽可能地保存,因此在设计色调曲线的时候,实际上是在解决一个最优化问题,优化的目标是减少由于亮度映射带来的对比度的畸变。对于输入的对比度G以及映射后的对比度

,畸变的平方的期望

可以利用对比度相对于对数域的亮度的分布p(G│L)进行表示:

上式提供了一个最优化问题,可以通过将色调曲线参数化表示以及使用图像直方图来表示P(L)来很快地解决。整体的概念与显示适应模型 [36]中的对比度优化过程十分类似,但是本算法中使用的方式减少了很多计算复杂度。为了保证时域的平滑改变,色调曲线的节点会在时域上利用低通IIR或者边缘截止滤波器进行滤波。

由于色调曲线的映射会将原视频中不可见的噪声变得可见,为了防止这一现象的发生,算法中使用了噪声感知技术。这一技术的想法是在色调映射的优化模型中,也就是下式的优化模型中,引入表示图像噪声的项,在最优化的过程中,这一项就会被不断削弱。

同时,算法中还将提取出的细节层进行了缩放,以减弱可见噪声。基于这两种方法,算法能够将可见的噪声减弱至人眼无法观察到的程度,进而提升了图像的质量。

总结

在本系列帖中,我们系统地介绍了色调映射算法的整体流程,通过背景以及相关知识的介绍,给出了色调映射算法的整体概念与常见思路,并详细地介绍了图像与视频色调映射算法中的经典算法。

相关链接

2017 HDR技术动态

HDR关键技术:色调映射(一)

HDR关键技术:色调映射(二)

参考文献

[1] C. Schlicks , Quantization techniques for visualization of high dynamic range pictures, Springer-Verlag, pp. 7-20.

[2] G Eilertsen, R Wanat, R. K. Mantiuk, J. Unger, Evaluation of Tone Mapping Operators for HDR-Video, in: Computer Graphics Forum Vol.32, no 7, 2013.

[3] R. Boitard, R. Cozot, D. Thoreau, K. Bouatouch, Survey of temporal brightness artifacts in video tone mapping, in: HDRi2014-Second International Conference and SME Workshop on HDR imaging, 2014.

[4] P. Debevec, A median cut algorithm for light probe sampling, in: ACM SIGGRAPH 2008 Classes , New York, NY, USA, SIG- GRAPH ’08, ACM, pp. 33:1–33:3, 2008

[5] T. O. Aydin, N. Stefanoski, S. Croci, M. Gross, A. Smolic, Temporally coherent local tone mapping of HDR video, in: ACM Trans. Graphics 33, 6, p. 1–13, 2014.

[6] B. Guthier, S. Kopf, M. Eble, W. Effelsberg, Flicker reduction in tone mapped high dynamic range video, in: Proc. SPIE, 2011.

[7] R. Boitard, K. Bouatouch, R. Cozot, D. Thoreau, A. Gruson, Temporal coherency for video tone mapping, in: SPIE 8499, Applications of Digital Image Processing XXXV, San Diego, 2012.

[8] M. Lang, O. Wang, T. Aydin, A. Smolic, M. Gross, Practical temporal consistency for image-based graphics applications, in: ACM Trans. Graph, Vol.31, no 4, p. 34:1–34:8, July 2012.

[9] X. Dong, B. Bonev, Y. Zhu, A.L. Yuille, Region-based temporally consistent video post-processing, in: The IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015.

[10] N. Bonneel, J. Tompkin, K. Sunkavalli, D. Sun, S. Paris, H. Pfister, Blind video temporal consistency, in: ACM Trans. Graph, Vol.34, no 6, p. 196:1–196:9, Oct. 2015.

[11] E. P. Bennett, L. Mcmillan, Video enhancement usingper-pixel virtual exposures, in: ACM Trans. Graphics, Vol.24, no 3, p. 845–852., 2005.

[12] J. H. Van Hateren, Encoding of high dynamic range video with a model of human cones, in: ACM Trans. Graphics 25, pp. 1380-1399, 2006.

[13] G. Eilertsen, R. K. Mantiuk, J. Unger, Real-time noise-aware tone mapping, in: ACM Trans. Graph, Vol.34, no 6, 2015.

[14] J. Li, O. Skorka, K. Ranaweera, D. Joseph, Novel real-time tone-mapping operator for noisy logarithmic cmos image sensors, in: Journal of Imaging Science and Technology, Vol.60, no 2, p. 1–13, 2016.

[15] G. Eilertsen, R. Wanat, R. K. Mantiuk, J. Unger, Evaluation of Tone Mapping Operators for HDR-Video, in: Computer Graphics Forum, Vol.32, no 7, p. 275–284, 2013.

[16] F. Dufaux, P. L. Callet, R. K. Mantiuk, M. Mrak, High Dynamic Range Video: From Acquisition, to Display and Applications, Vol.1, Academic Press, 2016.

[17] J. A. Ferwerda, S. N. Pattanaik, P. Shirley, D. P. Green- Berg, A model of visual adaptation for realistic image synthesis, in: Proceedings of the 23rd annual conference on Computer graphics and interactive techniques, New York, NY, USA,, 1996.

[18] S. N. Pattanaik, J. Tumblin, H. Yee, D. P. Greenberg, Time-dependent visual adaptation for fast realistic image display, in: Proc. SIGGRAPH 00 (2000), Annual Conference Series, 2000.

[19] S. B. Kang, M. Uyttendaele, S. Winder, R. Szeliski, High dynamic range video, in: ACM Trans. Graph, Vol.22, no 3, p. 319–325, 2003.

[20] E. Reinhard, M. Stark, P. Shirley, J. Ferwerda, Photographic tone reproduction for digital images., in: ACM Trans. Graph, Vol.21, no 3, p. 267–276, 2002.

[21]N. Goodnight, R. Wang, C. Woolley, G. Humphreys, Interactive time-dependent tone mapping using programmable graphics hardware, in: Proceedings of the 14th Eurographics Workshop on Rendering, Aire-la-Ville, Switzerland, Switzerland, 2003.

[22] P. Ledda, L. P. Santos, A. Chalmers, A local model of eye adaptation for high dynamic range images, in: International Conference on Computer Graphics, Virtual Reality, Visualisation and Interaction in Africa, 2004.

[23] G. Krawczyk, K. Myszkowski, H. P. Seidel, Perceptual effects in real-time tone-mapping, in: Proceedings of the 21st Spring Conference on Computer Graphics, 2005.

[24] F. Durand, J. Dorsey, Interactive Tone Mapping, in: Rendering Techniques 2000: Proceedings of the Eurographics Workshop, Brno, Czech Republic, 2000, p. 219–230.

[25] H. Wang, R. Raskar, N. Ahuja, High dynamic range video using split aperture camera, in: IEEE 6th Workshop on Omnidirectional Vision, Camera Networks and Non-classical Cameras, Washington, DC, USA, 2005.

[26] C. Lee, C. S. Kim, Gradient domain tone mapping of high dynamic range videos, in International Conference on Image Processing, 2007.

[27] A. Benoit, D. Alleysson, J. Herault, P. L. Callet, Spatio-temporal tone mapping operator based on a retina model, in: Computational Color Imaging Workshop(CCIW’09), 2009.

[28] J. Hérault, B. Durette, Modeling Visual Perception for Image Processing, Berlin, Heidelberg: Springer Berlin Heidelberg, 2007, pp. 662-675.

[29] L. Meylan, D. Alleysson, S. Süsstrunk, Model of retinal local adaptation for the tone mapping of color filter array images, in: J. Opt. Soc. Am. A Vol.24, no 9, p. 2807–2816, Sep 2007.

[30] Stevens , "The surprising simplicity of sensory metrics," in: American psychologist, p. 29, 1962.

[31] H. Shahid, D. Li, A. Fanaswala, M. T. Pourazad, P. Na- Siopoulos, A new hybrid tone mapping scheme for high dynamic range (hdr) videos, in: IEEE International Conference on Consumer Electronics (ICCE), 2015.

[32] S. T. Anand, S. Jeeva, S. Thivya, Edge detection using directional filter bank, in: International Journal of Applied Information Systems 1, pp. 21-27, 2012.

[33] J. Kuang, G. M. Johnson, M. D. Fairchild, icam06: A refined image appearance model for {HDR} image rendering, in: Journal of Visual Communication and Image Representation, Vol.18, no 5 , pp. 406-414, 2007.

[34] G. Ward Larson, H. Rushmeier, C. Piatko, A visibility matching tone reproduction operator for high dynamic range scenes, in: IEEE Trans. Visualization and Computer Graphics Vol.3, no 4, pp. 291-306, 1997.

[35] G. Eilertsen, R. K. Mantiuk, J. Unger, Real-time noise aware tone mapping, in: ACM Trans. Graph, Vol.34, no 6, p. 198:1–198:15, Oct 2015.

[36] R. Mantiuk, S. Daly, L. Kerofsky, Display adaptive tone mapping, in: ACM Trans. Graphics, Vol.27, no 3, p. 68:1–68:10, 2008

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-07-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 媒矿工厂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2017 HDR技术动态
  • HDR关键技术:色调映射(一)
相关产品与服务
媒体处理
媒体处理(Media Processing Service,MPS)是智能、强大、全面的多媒体数据处理服务,行业支持最全面的音视频编码标准,基于自研编码内核和AI算法,提供音视频转码和增强、媒体智能、质检评测等能力,帮助您提升媒体质量、降低成本,满足各类场景的音视频处理需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档