IT之家3月23日消息,此前,三星Galaxy S23 Ultra手机拍摄的月亮照片被质疑造假,虽然官方否认了这种说法,但还是有些网友不买账。
IT之家注意到,在开始解释之前,Eric声明他并不是为了为三星辩护,而是想让人们更好地理解这些图片为什么会呈现出这样的效果。首先,他问观众如何区分真假图片。然后,他展示了一张用iPhone 14 Pro Max拍摄的月亮照片,只能看到一个白色斑点。
然而,虽然iPhone 14 Pro Max拍摄的照片是真实的,但它并不能准确地反映出人们在拍摄时看到的月亮的样子,而这正是相机的目的:把你亲眼所见的记忆保存下来并重温。
该油管博主还提到三星在一篇文章中解释了它所采用的技术,为了增强月亮照片的效果,相机至少拍摄了10张图片,并使用图像处理技术去除瑕疵和噪点。然后,将这些月亮照片中最清晰部分合成一张单独的图像,并使用经过训练以识别月球各个阶段的AI进一步增强图像。
Eric还提到u/ibreakphotos这位网友,后者曾在Reddit上使用高斯模糊和其他步骤来证明三星用“增强”的月亮照片误导消费者。不过,Eric表示网友使用高斯模糊来模仿月亮照片与三星所做的恰恰相反:三星使用的是卷积神经网络。Eric还说网友将月亮图像缩小到170 x 170像素大小时丢失大量细节,并
应用高斯模糊。当处理如此少量细节时,三星AI必须对它正在处理什么进行最佳推测,因此最终结果不会完全匹配原始的缩小图像。
由于三星的Convoluted卷积神经网络在运行,最终图片结果呈现出棕色色调
之所以图像呈现棕色且边缘质量下降,原因就在于三星卷积神经网络在起作用,当去除棕色色调时可以看到非常接近于网友应用高斯模糊之前的图片。
这一系列事件的问题在于,三星误导消费者相信是公司的旗舰智能手机的相机在做所有工作,而不是AI。这可能会让用户认为如果月亮可以拍的这么清楚,那么使用100倍变焦拍摄的照片都可以这么清楚,而实际上并非如此