8月25日消息,UC伯克利、谷歌等提出了一种在合成复杂场景新视图任务中实现SOTA结果的新方法,该方法通过使用稀疏的输入视图集来优化基础的连续体场景函数。该算法使用全连接深度网络表示场景,其输入为单个连续5D坐标(空间位置 (x, y, z) 和视角方向 (θ, φ)),输出为体积密度和在此空间位置上的视图相 emitted radiance。
该研究通过查询沿着摄像头光线的5D坐标来合成视图,并使用经典的体渲染技术将输出颜色和密度投影到图像中。由于体渲染本身是可微的,因此优化表征所需的唯一输入是一组具备已知摄像机位姿的图像。研究者介绍了如何高效优化神经辐射场(neural radiance field),渲染出逼真的具备复杂几何形状和外观的场景新视图,而且其在神经渲染和视图合成方面的效果优于之前的工作。本文获ECCV 2020最佳论文荣誉提名奖。
责编AJX
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)