(文章来源:青亭网)
近期正在韩国首尔国际计算机视觉大会(ICCV)上,一大波的AI研究继而公布,Facebook计划发表40多篇论文,其中我们关注到2D照片下三维场景重建与内容理解,等等3D图像分析的研究。这些有什么作用呢,我们知道随着5G技术和千兆宽带的普及,届时的互联网媒介形式势必也会迎来改变,其中以AR/VR体验的三维形态的媒体内容被看作重点方向。
随着场景形态逐渐向三维转变,届时将会迎来一个高度逼真的虚拟世界,而三维内容的理解也将变得更为重要。例如现在的AI技术可以很好的识别2D照片/视频中的物体、动作等等,而到了三维场景中又会迎来新的玩法。Facebook AI研究院今天发布的一篇博客中,着重提到了其在3D内容理解上的努力。
以下的几项研究,正在以不同但互补的方式来推进三维场景解析技术的发展。1,Mesh R-CNN,一种可以精准预测现实环境中2D图像中物体的3D形状的框架,其可以检测复杂的对象,比如椅子腿儿、被遮挡的家具等;2,C3DPO,一种在2D关键点注释中,提取出可变性对象的3D模型的方法,已用于14个类别的对象,通过2D关键点标注实现,无3D标注信息;
3,通过新方法学习图像像素与3D形状之间的关联,大大降低对注释训练的依赖,从而更接近可以实现更多种类对象3D重建的自我监督系统;4,VoteNet技术,可在LiDAR或其它3D传感器输入可用时,进行对象检测,该系统完全基于3D点云技术,精度更高。
包括Mask R-CNN在内的很多图像解析AI框架,往往是在2D环境中进行工作,在3D环境下可能并不适用。不过,凭借2D环境中的感知技术作为积累,Facebook重新设计了一个3D对象重建的AI模型。该模型的特点是可在现实的场景图片中去预测3D对象的形状,而这其中的挑战在于光学部分,例如:是否有遮挡,是否有杂波以及其它拓扑的对象。
为了应对挑战,首先通过网格预测分支加强Mask R-CNN在2D对象分割系统,并构建Totch3d(Pytorch库)从而实现:Mesh R-CNN,其通过Mask R-CNN进行对象的检测和分类。然后通过新型网络预测模型推测3D形状,该预测包含体素预测和网格细化共同构成。最后通过Detectron2完成整套框架的结构,即:输入RGB图像--检测物体--预测3D形状的过程。
其中特定部分(例如人体关键、鸟翅膀)的2D关键点,成为了该方法中重新构建对象几何形状、变形或视点变化的线索。这些3D关键点利用价值也很高,例如在VR中创建逼真的面部和全身网格模型时。简单来讲,C3DPO是一种能重建包括数十万具有上千个2D关键点的数据集方法,并且针对三种不同的数据集、14种以上的非刚性物体类别,进行精度重建。另外,和Mesh R-CNN类似,C3DPO同样支持那些有遮挡或部分缺失图像。
而C3DPO模型还具备两个创新,一是,在给定一组单眼2D关键点的情况下,C3DPO将以标准方向预测相机视点的参数和3D关键点位置;二是,Facebook提出一个新的正则化技术,其包括与3D重建网络模型共同学习的第二个辅助深度模型,它解决了因分解3D视点和形状带来的冲突。正是基于这两项创新,才是C3DPO的方法比传统的数据统计模型表现更好。
根据Facebook描述,这种3D模型构建在以前是无法实现的,主要由于此前基于矩阵式分解的方法有很多限制,与C3DPO采用的深度网络模型不同,其能够“小规模”运行。为了解决3D重建带来的变形问题,此前往往通过同一时间多张图像合成解决,这对硬件要求更高,而C3DPO则可以在硬件无法进行3D拍摄(例如飞机等体型特别大的物体)的情况下实现3D重建。
另外还有从图像集学习图形像素与形状的映射关系,以及提升3D系统中对象检测能力的两个论文本文不再解读,感兴趣可阅读原文了解。总而言之,3D计算机视觉领域还有很多值得探究的领域,还有很多问题尚未被解决,还需要像此前进行2D计算机视觉探索那样继续前行。
随着数字世界的不断推进,我们将会转向使用3D照片、AR、VR等技术,因此未来需要更准确的理解场景中对象、交互动作等一系列复杂的问题。Facebook表示:能够开发出向人类一样理解现实世界,并与之互动的AI系统是其长期目标。诚然,这就需要不断缩小物理空间和数字化的虚拟空间之间的隔阂与距离,而在3D视觉方面就还有很多工作需要大家共同努力。
(责任编辑:fqj)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)