引用: 最初由 xulion 发表
这个我明白,我这里指的是在CCD上像素的大小。例如相同的CMOS面积,300d是600万像素,400D是1000万,我们是不是可以认为400D的弥散元直径更小呢(像素尺寸更小)。 对于同样的镜头,能够在300D上将景深内映像还原到一个像素点上的话,在400D上也许不能够成像于一个点内,这样当同样在电脑上用100%看的时候,同样的外部条件,300D在景深内而400D不在。
|
我知道你在说什么了。实际上你说的问题同100%截图无关。这么说吧,一个在图像传感器上占0.03毫米的物体在不同相机上的成像清晰度(指在图像传感器上的成像)能否不同?如果传感器上的成像清晰度不同,放大的结果自然也不相同。答案是可能的,但佳能也可能选择让两者的质量相同,即使两者的像素尺寸不一样。同样佳能的设计思路可能是:0.03平方毫米放大到标准的图像得到的质量应该是A,那么缩小到0.03毫米应该是B,我们可以设计300D和400D的图像传感器让它们的0.03毫米质量都是B。 你所说的一个像素点的的景深,这个问题是不存在的。一个像素点不能成为一个图像(比如,一个像素点不能分辨物体的边缘),不能作为判断的标准。如果以0.03mm为标准的话,你可以看到它需要0.03mm/6us = 5个左右的像素来形成一个图像(假设方形像素、边长为6us)。 顺便再说一句,300D和400D的图像在同一个显示器下放大到100%观看,两者的放大倍数是不一样的。道理很容易理解,显示器的像素面积是一定的,而300D和400D的像素面积并不一样,把它们都放大到显示器的像素面积大小显然需要不同的放大倍数。
|