0%

关注港大MARS实验室的小伙伴应该都听过 R2LIVE (Robust, Realtime),它以紧耦合的方式融合相机,雷达,IMU数据,能够较好地应对设备故障以及环境因素导致的视觉或激光退化现象。这几天MARS实验室又有大动作,他们在Github新建了一个叫 R3LIVE (Robust, Realtime, RGB-colored)的项目,这个项目在之前的版本的基础上改进了VIO算法并给激光点云上了颜色。目前该项目已上传论文,后续会公布代码。

Read more »

Eigen是一个非常常用的矩阵运算库,至少对于SLAM的研究者来说不可或缺。然而,向来乖巧的Eigen近来却频频闹脾气,把我的程序折腾得死去活来,我却是丈二和尚摸不着头脑。

Read more »

论文题目“Pixel-Perfect Structure-from-Motion with Featuremetric Refinement”(通过在特征尺度优化进行高精度 SFM),获得 ICCV 2021 最佳学生论文。

本文的优化框架可在任何基于局部特征点的 SFM 流程中使用,使用 CNN 提取图像特征图(dense features),根据稀疏的特征匹配得到初始的 tracks,调整每一个 track 对应的特征点在图像中的位置;根据调整后的位置进行 SFM 重建,重建过程中的 BA 优化残差由重投影误差变为 Featuremetric 误差。

Read more »

今天要介绍的文章是来自Stephen等人在CVPR2021发表的Patch-NetVLAD,论文名是”Patch-NetVLAD: Multi-Scale Fusion of Locally-Global Descriptors for Place Recognition“。本方法结合局部与全局特征的优势并利用NetVLAD残差得到patch-level的特征,该特征能够有效应对环境以及视角变化对VPR带来的影响,获得了“ECCV2020 Facebook Mapillary Visual Place Recognition Challenge”的冠军。

Read more »

最近有几个同学问我光场相机是否能够用在SLAM中,我的第一感觉是不可能

本人研究生期间一直进行光场相机深度恢复的工作,深知其优势与不足。SLAM是我参加工作以来从事的研究方向,经过两年多的摸爬滚打算是入门了。目前视觉SLAM理论上虽已比较成熟,但在实际使用中仍会遇到诸多问题,如容易受到外界因素如光照/动态物体/稀疏纹理/室外大场景/快速运动等因素的影响,这些问题仅使用传统相机似乎无法有效解决。而光场相机相较于传统相机能够记录同时记录光线的方向与强度,这使我们可以通过计算成像得到一些列虚拟视角的图像。简单来说就是单目光场相机实现了虚拟多目的效果,但这些虚拟视角间的基线距非常小,测距范围有限,预期无法获得长距离的深度信息。

Read more »

近期本人工作中频繁用到跨语言文本读写,本文结合实例介绍使用$\mathbf{Matlab}/\mathbf{Python}/\mathbf{C++}$读写文件的常规操作,以便后续查阅。

Read more »