来自英国诺丁汉大学和英国金斯顿大学的一组AI研究人员近日创造了一个办法,让AI仅通过一张平面人像就可以创建出原本的三维模型。研究人员向卷积神经网络(CNN/Convolutional Neural Network),输入海量的人脸数据后,神经网络自己学会了如何根据一张从未见过的照片猜出来这个人的真实模样。
团队在网站上公开了相关的文献和代码,下面是一小段对这个技术的介绍:
“三维人脸重建是一个非常困难的计算机视觉基础问题。当前的系统通常假定有多个面部图像(有时来自同一对象)作为输入,并且必须解决许多方法上的挑战,例如大量面部姿势、表情和非均匀照明等因素间的对应关系。通常的方法都需要复杂而低效的建模和匹配工作。
但是,在这个项目中,我们尝试用包括2D图像和三维面部模型或扫描图像在内的素材,训练卷积神经网络从而避开之前方法的瓶颈。现在,我们的神经网络只需要输入单一的二维人脸图像,它就可以重建整个三维人脸模型,并且还能够识别任意面部姿势和表情。”
在36氪之前报道的《A16Z合伙人是如何看无人车网络效应的》一文中,我们分析到,计算机视觉对于自动驾驶技术非常重要,无人车只有知道自己在什么位置、身边的车辆和行人在做什么以及周边有什么信号指示才可能安全上路行驶。目前,鉴于计算机视觉还不能从大量2D照片中判断路况,所以大多数无人车公司还需要使用多种传感器加高精地图方式为无人车导航。
但是现在,我们能使用到的这个测试揭示了计算机视觉发展的冰山一角,如果无人车能够像人类一样通过眼睛判断路况,大多数无人车公司的发展路径就会被搅乱,而特斯拉——等待计算机视觉出现重大突破的少数无人车公司之一——则下对了赌注。