科普:RAW照片色彩深度越高画质就越好?

最近网络上泄露了疑似尼康Z8说明书截图,截图指出新相机支持16bit深度的RAW格式照片,假若成真Z8将会成为首款支持16bit RAW的全幅相机。色彩深度(depth,单位bit/位)是RAW照片一个重要指标,其数值越高,理论上色彩越丰富、动态范围越宽广,那色彩深度能否与画质画等号?

疑似Z8说明书,新相机支持16bit RAW和60-80%高压缩率RAW

要了解深度对RAW画质影响必须从数码相机成像原理说起,当光线穿越镜头后,会被CMOS传感器上的光电二极管转换为电信号,接下来电信号会被放大,在ADC(模数转换器)上进行模数转换,变成数字信号,经历第一次“bit”。

采样精度(单位bit)是ADC的重要参数,其数值越高性能越好,我们常说的传感器多少bit输出正是指ADC采样精度。在CMOS传感器上采样精度决定了色彩数量与理论动态范围,假若采用拜尔阵列,12bit的ADC支持68.68亿种颜色以及12档动态范围,在精度提高到14bit后,支持4.39万亿种颜色以及14档动态范围。以今天显示设备与打印水平,12bit足以满足使用,更高的精度是为了扩展动态范围。要注意的是,决定一块传感器动态范围是光电二极管的信号与噪声比值,ADC好比一扇门,动态范围是身高,身高是多少人所决定的,ADC只能起到限高的作用,为了方便同行我们会把门做得比人更高,相机同理。

在今天,中画幅相机已用上16bit ADC,全幅、APS-C画幅相机普遍使用14bit ADC,M43、1英寸大多使用12bit ADC。ADC的精度不是恒定的,在输出视频时往往会将14bit降低12bit甚至是10bit,以提高输出速度,因此同一台相机的视频动态范围往往不如照片。在CMOS传感器输出数字信号后会进入DSP处理,经历第二次“bit“,一般来说处理器的处理精度与ADC精度相同,这样不影响画质,也有助于控制DSP成本,避免浪费性能。

在经过DSP去拜尔、白平衡调整、去摩尔纹一系列处理后,数字信号会被封装成RAW或JPG格式照片。JPG格式经过高度压缩、锐化,深度只有8bit,完全经不起后期处理,高“bit“指的RAW才能展示相机的画质。相信摄影爱好者都知道RAW是一种未经处理、未经压缩的照片储存格式,它有多种封装格式,比如Adobe的DNG,尼康NEF,佳能CRW。事实是相机RAW照片都经过了处理,比如说去热噪声,在经过压缩后RAW照片的动态不再受到色彩深度限制,最典型的例子莫过于ARRI Alexa系列与松下GH5S。

DNG是Adobe推广的RAW格式

Alexa使用的是ALEV III CMOS传感器,在成像时两组14bit ADC分别以高增益、低增益方式同时输出信号,两个信号会被机内精度高达16bit的数字处理器进行HDR合并、猜色,输出动态范围超过15档的图像,最后储存在色彩深度只有12bit的ARRIRAW当中。而GH5S的RW2(松下的RAW格式)色彩深度达到了14bit,可限于12bit的传感器,照片动态范围只有12档左右。

Alexa的是ALEV III CMOS传感器

可见RAW照片的色彩深度与画质没有绝对关系,色彩深度数值越高(bit值越高)只代表动态范围可能越高,但色彩深度过低一定会降低画质,同样道理也适用于视频Log。而且随着相机连拍速度、像素数量飞速增加,储存压力变得空前巨大,近乎无损画质又能减小照片尺寸的压缩RAW技术变得极为重要,16bit RAW照片固然是好,可RAW压缩技术同样重要。

打开APP阅读更多精彩内容