我认为宽容度最大的限制还是在计算机系统上只能显示8位的色彩。Windows系统下,在显示属性里面可以看到32位真彩色(RGBA四个分量,每个8位,加起来32位,A是透明通道)
也就是说,每个基色的分量只能是0-255,最暗的颜色是RGB(0, 0, 0)最亮的颜色就是RGB(255, 255, 255)。
要提高感光元件,只要改变LZ画的那条直线的斜率,然后增加采样率就可以了。
但问题是,即使感光元件的采样率很高,比如尼康高端的机型的14位RAW,但是显示到计算机里扔就要变成8位,如果14位转换为8位,以提高宽容度位主要目的,那么位于中间的细节就会损失,相机生产商就要取舍了。
通俗地讲,14位的RAW包含了4,398,046,511,104种颜色,而计算机只能显示16,777,216种颜色。矛盾出现在这里。
举个例子,现在计算机只能显示从暗到亮a, b, c, d, e五种颜色,而相机采样很高,得出了从暗到亮2,3,4,5,6,7,8,9,10这9个颜色信息,那么如何在计算机上显示呢?
一种映射算法就是: 2 , 3, 4 对应 a; 5 对应b; 6对应c; 7对应d; 8, 9, 10对应e。
这时,结果就是,高光的8, 9, 10细节就丢失了,暗部的2, 3, 4细节也丢失了, 中间的5, 6,7细节得以保存。我们就说,这相机的宽容度只能从4 - 8。因为暗于4的颜色和高于8的颜色都无法显示。
为了增加宽容度,我们这样改变映射算法: 2 -> a 3, 4 -> b 5, 6 -> c 7, 8 -> d 9, 10 -> e 这样宽容度提高了,可以显示2-9的颜色了,但是中间的3,4;5,6以及7,8的细节却丢失了。
在调整RAW曝光的时候,其实就是在改变这个映射的算法,因此可以得到不同曝光的多张JPEG图片。
而所谓的HDR,就是将不同曝光的结果,也可以是一张RAW出的不同曝光的照片(可以从这里看出RAW就有比JPEG更高的宽容度)合成。
但是问题是这样的,如果你把天空的亮度压低和原来主体光正常的照片合在一起,那么这时天空和主体的亮度关系已经被改变了,也就是不是真实看到的情况了。
语言表达不是很清楚,希望能够让人理解。
当然了,这也是数码的原因,因为模拟本来就没有采样的说法,因此也没有几位。但是只要最终显示在了显示器上,不管是胶片还是数码的,宽容度就被限制在计算机系统下了,除非你改变画面本身的亮暗关系(如HDR)。
另外,为什么计算机系统,不管是Windows还是Apple还是Linux都是8位色彩,原因是研究表明,人眼能够识别最大的颜色数基本上就是这个水平,也就是2的24次方,等于16,777,216色。
类似的讨论在音响上也很多,也是由于数码采样的关系。典型的CD采样率是44.1kHz,也是基于研究结果,认为高于44.1kHz的采样频率人耳朵已经无法分辨了。
[ 此帖由 frank7258 最后编辑于: 2009-07-28 07:37 ]
____________________
Nikon_D90 Nikkor_AF_D_50mm/F1:1.8 Sigma_HSM_DC_Macro_17-70mm/F1:2.8-4.5
|