网控科技网

当然这种人像效果的iPhone 在某些场景下将会受到限制,毕竟机器

简介: 当然这种人像效果的iPhone 在某些场景下将会受到限制,毕竟机器学习模型可能会得出一个似是而非的深度图,但这并不意味着它反映了现实,所以新iPhone SE 所产生的人像效果可能要比多镜头系统或其他传感器要差些。

而近日, Halide Camera相机应用的开发者为我们介绍了新iPhone SE镜头的一些技术细节,到底为什么跟iPhone 8一样只有一个镜头模组,但却可以做到如iPhone 11 Pro三个镜头一样的人像模式拍摄呢?

目前,网上已有不少新iPhone SE的拆解影片,而且已经确认iPhone SE和iPhone 8的大部分硬件是一样的,并且可以交换使用。

虽然,iPhone XR 同样使用单镜头产生人像效果,但它使用的是focus pixel。

而新iPhone SE 由于镜头传感器不支援focus pixel, 因此它完全通过机器学习来产生深度信息。

▲ iPhone SE 的人像模式灯光效果跟iPhone 11 系列一样为5 种,比起贵几百元的iPhone XR 三种还要多所以,当新iPhone SE 用镜头对着一张人物照片拍摄时,它同样能够产生人像效果。

当然这种人像效果的iPhone 在某些场景下将会受到限制,毕竟机器学习模型可能会得出一个似是而非的深度图,但这并不意味着它反映了现实,所以新iPhone SE 所产生的人像效果可能要比多镜头系统或其他传感器要差些。

那么就能得知为什么Apple 不打算替iPhone SE2 人像模式功能延伸在宠物或物体拍摄,主要原因是在于人像拍摄效果在拍人部分会获得最佳的效果,也不想让使用者感到失望,这也就是指人类遮罩、机器学习深度图借助于A13 优势下,拍摄人像效果会是最好的。

主要原因是iPhone SE2 仅只是靠机器学习来判断一张2D平面照片的实际深度,特别是在拍摄非人像时,就容易无法识别主体与背景之间的距离,容易导致误判情况。

疯先生在实际拿iPhone 11 Pro 系列测试,发现三镜头也并非会同时间启动取得场景深浅,一次只会同时启动两颗镜头来判别与计算,这也是为何多镜头下能够拍出非人像以外的事物,会比起单镜头来的准确。


以上是文章"

当然这种人像效果的iPhone 在某些场景下将会受到限制,毕竟机器

"的内容,欢迎阅读网控科技网的其它文章