作者 | 雷健恒 
来源 | 爱范儿(ID:ifanr)
自10月3日 iOS 13.2 开发者版本更新以来,为各位 iPhone 11 系列用户带来了不小的惊喜,因为 Deep Fusion 来了
Deep Fusion 是什么来头?
这个被苹果高级副总裁菲尔·席勒称为「计算摄影的疯狂哲学」的功能,可以在用户按下快门前拍摄 8 张照片,并融合一张按下快门时的长曝图片,生成一张媲美专业相机的高动态范围照片,即便在中低光环境下也能呈现更多细节。
Deep Fusion 这项今年三款新 iPhone 独占的功能,并没有随着新 iPhone 的开售而到来。但经过将近一个月的等待后,它终于还是来了。
直接看看成像效果怎么样
大家都知道,在过去的机型中,苹果就已经通过 Smart HDR 来帮助用户拍摄出高动态范围的照片。自然而然,苹果用户最关心的,相信就是,Deep Fusion 与前者有何差异。
加拿大摄影师 Tyler Stalman 就将 iPhone XR 上的 Smart HDR 与 iPhone 11 上的 Deep Fusion 进行了对比。
从样张中我肯可以看到,确实在开启 Deep Fusion 后,样张确实会有更为丰富的细节表现。
另一组样张则是来自国外科技博主 Chuck Skoda,他直接将样张进行了 100% 的放大,然后对比了 Smart HDR 与 Deep Fusion 的表现。(左边为 Smart HDR,右边为 Deep Fusion)
另外,科技博主 domenico 也在其推特中发出了一组在夜景中开启 Deep Fusion 的对比照。相比起日间,在夜景中 Deep Fusion 对细节还原的提升似乎更大。
实际上,新 iPhone 在摄影上的突破,主要归功于算力更强大的 A13 仿生芯片上。这块芯片相比起前代,CPU 速度最高可提升 20%,能耗最多可降低 30%,而四个能效核心速度提升了 20%,能耗却降低了 40%。
另外,A13 仿生新增了两个新的机器学习加速器,能以最高达 6 倍的速度执行矩阵数学运算,每秒可进行 1 万亿次的运算。
更强大的算力,才得以保证 Deep Fusion 的实现。
与 Smart HDR 不同,Deep Fusion 的合成并不需要经过 ISP,而是当你拍摄了更多的照片数据时,它们会直接给到神经网络引擎,神经网络引擎具备一种全新的模型,可以整合大量的照片——它会对 2400 万像素进行逐一像素的比对,从而合成最终的照片。

另外还有一些成像效果以外的体验细节
延续苹果一贯的概念,也就是尽量让拍摄变得简单,Deep Fusion 并没有开关。系统会自动根据拍摄环境来判断是否需要开启 Deep Fusion。在此前,席勒也透露 DeepFusion 只会在 10-600lux 下的照度下激活,如果光线低于 10 lux,相机启用的则是夜间模式。
外媒 The Verge 则进一步发现,新 iPhone 上三颗不同的镜头,实际上开启 Deep Fusion 的条件是不一样的。
首先广角镜头会在明亮至中光的环境下启用 Smart HDR,在中光到暗光的环境下会启用 Deep Fusion,而在几乎黑暗的环境下则会启用 Night Mode。所以席勒上面所讲以 10lux 以及 600lux 作为划分线的启用逻辑,指的应该是使用广角镜头的时候。
其次在使用长焦镜头的时候,仅仅会在非常明亮的环境下才会启用 Smart HDR,其余场景则只会使用 Deep Fusion。
而最后由于超广角镜头是不支持 Deep Fusion 以及 Night Mode 的,所以在该镜头时则只会启用 Smart HDR。
在接受我们的采访,被问到 Deep Fusion 合成一张照片所要的时间时,席勒表示仅需要一秒。
确实很快,但是这一秒还是能够感受得到的。据论坛中已经率先体验 Deep Fusion 的用户反映。拍完照之后进入相册,找到你刚刚拍下的照片时,你会发现照片会「抖」一下,然后才会重新展现一张与原先有明显区别的照片。
更多的照片信息,也就意味着这张照片需要占你更多的空间。iPhone XR 上的 Smart HDR 照片大小为 1.4MB,iPhone 11 上的 Deep Fusion 大小则进一步上升至 2.4MB。
所以奔着 Deep Fusion 这个功能而购买新 iPhone 的用户,可要好好地考虑容量问题了。
本文作者雷健恒,首发于公众号“爱范儿”(ID:ifanr),禁止二次转载,如需转载请联系爱范君(微信 ID:ifanr1234)。新知阶层的科技读物,与全球智识同步,欢迎识别下方二维码进行关注。
「往期回顾」
继续阅读
阅读原文