Dissertação

{en_GB=Visual Inertial Odometry for Mobile Home Robots} {} EVALUATED

{pt=Robots conscientes dos seus ambientes, e capazes de os percorrer livremente, serão uma realidade ubíqua nas casas do futuro. Odometria visual inercial é hoje uma tecnologia possível em muitos projetos devido ao baixo custo de câmeras e unidades de medida inercial (IMU). Nesta dissertação analisamos como a inicialização do estado e propagação de dinâmicas com base em leituras da IMU, intrinsecamente sujeitas a enviesamentos (bias), devem corresponder aos movimentos capturados pela câmera. Analisamos as sinergias entre estes dois tipos de sensores no contexto de estimação de pose. O aparato experimental considerada um robot móvel com rodas, envolvendo um Raspberry Pi e uma IMU por intermédio de um Arduino. A calibração do sistema, nomeadamente a transformação rígida entre câmera e IMU, é feita com uma ferramenta disponível publicamente. Os dados visuais e inerciais são processados usando um UKF com representação de estado baseada em grupos de Lie. Propomos uma inicialização de estado para este filtro que possibilita a combinação entre as leituras integradas da IMU e dos pontos do cenário acompanhados visualmente. Resultados experimentais mostram a importância de corresponder pontos acompanhados nas primeiras imagens com as integrações das primeiras leituras da IMU, uma vez que erros significativos na estimação inicial de bias podem impedir a fusão de sensores e a convergência do filtro. Resultados mostram também que a operação do filtro de fusão permite sinergias entre os dois sensores. Enquanto a IMU fornece estimações instantâneas e seguras de velocidades de translação e rotação, a câmera fornece correção à bias da IMU., en=Robots aware of their surrounding, and able to roam freely, are expected to become ubiquitous in future homes. Visual inertial odometry is an enabling technology which is possible nowadays due to novel low-cost cameras and inertial measurement units (IMUs). In this work we analyze how the system-state initialization and dynamics propagation of IMU readings, involving intrinsic bias, has to match the visual motion captured by the camera. Then we analyze the synergies between these two sensors in the context of pose estimation. A small wheeled mobile robot is developed based on one Raspberry Pi, one camera and one IMU mounted on an Arduino. The calibration of the system, namely the rigid transformation between camera and IMU is performed with a free, public domain, tool. The visual and inertial data is processed by means of an Unscented Kalman Filter with Lie group embedding for state representation. We propose a state initialization for this filter that enables matching the integrated IMU readings with the tracked visual features. Experiments and results show the importance of successfully matching the feature tracks in the first images with the starting integration of IMU readings, as significant errors in initial bias estimations may preclude sensors fusion and filter convergence. Results show also that the operation of the fusion filter allows synergies between the two sensors, while the IMU provides instantaneous and reliable estimations of translation and rotation speeds, the visual component provides IMU bias correction.}
{pt=Unidade de Medida Inercial (IMU), Bias, Estimação de Pose, Odometria Visual e Inertial (VIO), Unscented Kalman Filter (UKF), Grupos de Lie., en=Inertial Measurement Unit (IMU), Bias, Pose Estimation, Visual Inertial Odometry (VIO), Unscented Kalman Filter (UKF), Lie groups.}

dezembro 6, 2021, 15:0

Publicação

Obra sujeita a Direitos de Autor

Orientação

ORIENTADOR

José António Da Cruz Pinto Gaspar

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Auxiliar