回顾智能手机摄像头的发展历程,我们可以发现一个有趣的现象。在2017年,谷歌Pixel 2、三星Galaxy Note 8以及苹果iPhone 8等旗舰手机的后置摄像头普遍采用了1200万像素的传感器配置。时至今日,尽管五年过去了,部分iPhone型号依然坚守着1200万像素的摄像头规格。然而,在竞争日益激烈的手机市场,谷歌Pixel 6系列、三星Galaxy S22及S22+系列则采用了5000万像素的主摄像头,而Galaxy S22 Ultra更是将像素数量提升至1.08亿。此外,有消息称,摩托罗拉也在积极研发一款配备2亿像素摄像头的手机。
然而,许多用户可能会发现,尽管手机摄像头传感器拥有极高的像素数,但实际拍摄出来的照片并不会直接以5000万或1.08亿像素的形式呈现。那么,这些看似“消失”的像素究竟去了哪里呢?
事实上,这种现象背后存在着一种被称为“像素合并”的技术原理。在数据处理领域,合并指的是将数据点进行分组的过程。在数字摄影中,被合并的对象正是单个像素。具体来说,根据手机相机传感器的完整分辨率,像素会被分成若干组,通常是四组或九组,手机厂商通常将这些技术称为“四合一”或“九合一”。
以Galaxy S22 Ultra为例,它采用了与之前几款高端三星手机类似的像素合并技术,即对1.08亿像素的传感器进行九合一处理,最终输出1200万像素的图像(108÷9=12)。而谷歌Pixel 6和Pixel 6 Pro则采用了四合一技术,将四个像素合并为一组,输出1250万像素的照片(50÷4=12.5)。
那么,为什么手机厂商要采用像素合并技术呢?高通负责摄像头和计算机视觉的产品管理副总裁给出了答案,主要归结为两个方面:光的敏感性和空间限制。
相机传感器表面布满了成千上万的像素,它们是感知光线的独立单元。随着智能手机摄像头分辨率的不断提升,传感器表面的像素数量也在持续增加。然而,在有限的物理空间内塞入更多的像素,虽然可以提升照片的细节表现力,但同时也会限制摄像头在弱光环境下的光线捕捉能力。
这是因为小像素无法捕捉到足够的光线,这是基本的物理原理。在现代智能手机中,像素大小在1微米左右的情况并不罕见。像素的大小至关重要,因为像素越小,其收集入射光线的表面积就越小。在其他条件相同的情况下,像素为0.8微米的传感器拍摄的照片亮度会低于像素为1.2微米的传感器。
为了解决这一问题,手机厂商可以采取多种措施。许多智能手机结合了来自多个传感器的信息,通过软件算法创建单一图像,实际上融合了多张照片的数据。另一种选择是使用物理上更大的传感器,使每个像素拥有更大的表面积来收集光线。谷歌在Pixel 6系列的主摄上就采用了相对较大的1/1.31英寸传感器,从而实现了较大的像素点。但这种方法需要占用更多的手机内部空间,进而影响其他部件,如电池的配置。
另一方面,像素合并技术将相邻的像素合并起来,人为创造出更大的“超级像素”,这些超级像素对光的敏感度高于其组成的单个像素。在大多数数码相机中,图像传感器上的每个像素都会过滤特定波长的光线,通常25%的像素用于捕捉红光,25%用于捕捉蓝光,50%用于捕捉绿光。当手机进行像素合并时,其图像信号处理器(ISP)会对来自四组(或九组)相似颜色的相邻像素的输入进行平均,从而生成图像数据。其结果是“分辨率下降,感光度上升”。
然而,通过像素合并技术仍然无法完全复制物理上大像素的弱光性能。此外,对像素进行合成还可能导致额外的伪影。
由于像素合并技术能够在很大程度上弥补小像素传感器在弱光环境下的不足,这也意味着依赖于高像素分辨率的功能并不一定需要物理上巨大的相机传感器。例如,Galaxy S22 Ultra支持8K视频录制,这在传统的1200万像素相机传感器上是不可能的。

此外,高像素也非常适合在不使用专用长焦镜头的情况下进行拍摄,在充足的照明条件下,可以利用传感器的高分辨率实现高质量的数字变焦。
总而言之,像素合并技术是一种创造性的解决方案,能够有效应对不断增加的像素传感器所面临的物理限制。它已经成为行业内的标准做法,帮助我们在光线下获得视觉上准确的照片,避免了高ISO或长曝光时间可能带来的模糊效果。