Google camera raw的测量颜色深度为14位

有不少人问这个问题,还有作为一个长期用谷歌RAW后期的人,个人给出的答案一直都是:14bit。但这东西归根结底还是道听途说的,我也从来没有验证过,但在使用的过程中也确实能感受到谷歌的raw在找回亮部与暗部色彩的能力上是系统相机raw不可比拟的。所以今天就来个同场景的测试,不一定准,各位就权当看个乐呵。

首先来说下色深这个概念,说白了就是一个RAW里能够容纳多少色彩信息,也就是色彩的宽容度、细腻度。各位都应该听过宽容度这个概念,如果一个相机宽容度很高,但色深很低,那会出现什么情况?打个比方我们拍到了一张严重欠曝的图像,拍摄主体是一辆汽车,当我们用软件将曝光拉回来时,会发现这个汽车的轮廓细节都在,但车身的颜色找不回来了,色彩不准且全是色彩的断层。

至于现在要讨论的"xx"位色深,大家可以看这个图

相机可以记录rgb三个通道的色彩,那14位色深的相机每个同道就能记录2的14次方也就是16384个级别的色彩信息,那总共就能记录16384x16384x16384的色彩。

那怎么验证谷歌相机到底是多少位色深呢?这还挺麻烦,因为例如ps,lr这些后期软件都没法显示。我在网上就找到了Rawdigger这个软件,首先我先来测试下自己的相机a7r3,这是个14bit的机器。我把一张之前拍的raw丢进去,可以看到单通道最高就是15871了,这相当于2的13.95次方,可以说还是比较准确。

然后掏出手机「小米11U」,使用系统相机打开专业模式用raw拍摄,把得到的raw也丢进去看看。可以看到单通道最大能记录3839个级别,相当于2的11.9次方,这个由于与采样的明暗跨度有关,基本就可以算为是个12bit了。由此我们可以说主摄的raw可以在系统相机下提供12bit的色深。

那谷歌相机又如何呢?通场景下我又用谷歌进行了拍摄,把得到的raw丢进去。oh…我们看到谷歌的堆栈raw单通道直接就最高跑到了15355,超过了2的13.9次方,可以看到知乎大哥诚不欺我,谷歌确实是可以提供14位色深的raw文件。

由于11U主摄的规格比较高,那辅摄的imx586又如何呢?于是我又用长焦对比了一组。这里我们直接上结果。可以看到系统相机的raw,在使用imx586时单通道最高跑到959,相当于2的9.9次方,也就是10bit。而谷歌相机继续疯狂输出,仍旧是可以提供14bit的色深。

现在我们可以得出结论了。谷歌相机可以提供多少位色深的raw呢?是14bit。无论你手机里的cmos是强大的gn2还是只能单帧输出10bit的老古董imx586,谷歌大法都能给你拉到14位色深的raw。

那该用哪个版本的谷歌相机才能用上14位色深呢?答案是任何版本。只要你手机能装上,能用它输出raw,那就可以。谷歌相机可以说是喜欢玩后期的福音,堆栈raw不但能带来宽容度高感的提升,同时也能让手机具备相机的高色深输出能力。也希望小米华为等厂家也能像vivo,三星,苹果,谷歌学习下,早日提供自己的堆栈raw,谷歌虽然好,但毕竟不是自家的。