我们提出了一个鲁棒的实时单目六自由度视觉重定位系统。利用贝叶斯卷积神经网络对单RGB图像的6自由度摄像机姿态进行回归。它以端到端的方式进行培训,不需要额外的工程或图形优化。该算法可在室内外实时运行,计算时间不超过6ms。对于非常大的室外场景,它可获得大约2米和6度的精度,而对于室内场景,它可获得0.5米和10度的精度。利用贝叶斯卷积神经网络实现方法,我们得到了模型的再定位不确定性估计,并提高了大规模户外数据集的定位精度。我们利用不确定性度量来估计度量重定位误差,并检测输入图像中场景的存在与否。结果表明,模型的不确定性是由图像在姿态和外观上与训练数据集的不一致引起的。
现代同步定位与映射(SLAM)系统在增强现实和国内机器人等领域有着良好的应用前景〔1〕,但由于其无法应对大视角或外观的变化,在野外还没有得到广泛的应用。视觉SLAM使用的点标记,例如SIFT[2]或ORB[3],无法创建对这些具有挑战性的场景足够健壮的表示。密集SLAM系统[4]、[5]试图直接从像素估计相机的运动,但在这些情况下也是脆弱的。他们对帧之间微小变化的假设随着大视角或外观的变化而中断。除了这些缺点之外,这两种度量SLAM框架都需要良好的初始姿态估计,以便能够连续跟踪相机的姿态,并且在重新定位时无效。一个互补的系统,基于外观的SLAM,可以重新定位到一个粗略的姿态估计,但被限制在有限数量的离散位置中对场景进行分类。这是通过使用具有FAB-MAP的SIFT〔2〕特征〔6〕或使用卷积神经网络特征〔7〕来实现的。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
全部0条评论
快来发表一下你的评论吧 !