苹果iPhone 11/Pro/Max的Deep Fusion功能已开始测试,即将推送
IT前沿10月2日消息 据The Verge消息,苹果公司的Deep Fusion功能已经进入了iOS 13的最新开发人员测试版,并表示这一功能将很快推送给iPhone 11、iPhone 11 Pro及iPhone 11 Pro Max。
据了解,Deep Fusion是通过机器学习以低到中等的光线拍摄照片,连续拍摄九张照片最终合成高细节、低噪点图片。Apple高级副总裁Phil Schiller在发布会上称其为“疯狂的摄影算法”。不过在iPhone 11系列发布的时候,Deep Fusion功能尚未准备就绪,因此并没有与新iPhone一起推出。尽管iPhone 11和11 Pro的摄像头令人印象深刻,但Deep Fusion将使得相机在室内和中等照明条件下也能拍摄出优秀的作品。
借助Deep Fusion功能,iPhone 11、iPhone 11 Pro和iPhone 11 Pro Max将具备三种拍照模式,它们会根据当前的光线环境和所使用的镜头自行启动:
标准的广角镜头将使用苹果的增强型智能HDR来处理明亮到中光的场景,Deep Fusion用于中到低光,而夜间模式则用于暗场景;
景深镜头主要使用Deep Fusion功能,而Smart HDR则只处理光线明亮的场景,夜间模式则用于暗场景;
超广角镜头始终使用Smart HDR,因为它不支持Deep Fusion或Night模式。
与夜景模式不同的是,夜景模式在相机页面时可见的、可以手动打开关闭的,而Deep Fusion则只在背后默默工作,并无相关设置界面或开启按钮。苹果官方表示这是刻意为之,因为它不希望人们为拍到好照片而思虑过多,这一切手机会自动处理。
Deep Fusion功能与Smart HDR的运行方式大不相同,其工作原理如下:
1、当你按下快门按钮时,相机已经以快速快门的速度抓拍了四帧;此外它还会通过一个较长曝光的镜头来捕捉细节。
2、这三个常规镜头和长曝光镜头被苹果合并为“合成长曝光镜头”——这是与Smart HDR的一个主要区别。
3、Deep Fusion选取展示细节最多的短曝光图像,并与“合成长曝光镜头”融合。
4、图像还要经过逐像素处理,每个步骤都会针对更多的细节予以调整,其中天空和墙壁处于调整的最低级别,而皮肤、头发、织物等处于最高级别。至于如何融合这两张图片生成一张照片,还需要从一个图像获取细节,从另一个图像获取色调、颜色和亮度,最终展现在消费者面前。
5、生成图像。
与正常的Smart HDR模式相比,在拍摄过程中Deep Fusion花费的时间更长——大约一秒,这意味着Deep Fusion无法在在突发状况中发挥作用。