Date
09 juin 2021
Type

Yassine Ahmine soutiendra sa thèse de doctorat le mercredi 9 juin à 10h (par visioconférence).
 

Résumé
Pour une plateforme mobile qui explore un environnement inconnu, la capacité de se localiser est primordiale pour mener à bien sa mission. Or, quand les systèmes de localisation globale ne sont pas accessibles, ce processus de localisation nécessite une carte de l’environnement qui lui-même est inconnu.

Afin de résoudre ce problème, l’approche communément adoptée consiste en l’estimation concurrente de la pose de la plateforme ainsi que la carte de l’environnement. Approche connue dans la communauté robotique sous l’acronyme SLAM (Simultaneous Localization And Mapping) – signifiant localisation et cartographie simultanées.

C’est dans ce contexte que s’inscrit cette thèse, qui a pour objectif de proposer des solutions aux problématiques d’estimation du déplacement de caméras embarquées qui sont aussi liées à l’odométrie visuelle. Les contributions de la thèse peuvent ainsi se résumer dans les points suivants :

Proposition d’une stratégie d’initialisation de points d’intérêts basée sur l'information de saillance des images pour l’estimation de la trajectoire d’une caméra en mouvement.
Utilisation de la représentation continue des images dans l’espace d’échelles afin d'augmenter le domaine de convergence des algorithmes d’alignement d’images directes pour les transformations projectives et 3D.
Intégration de l’algorithme d’alignement d’images proposée à un système SLAM pour la fusion des données 3D d'un télémètre laser et des images acquises par une caméra.
L’ensemble des expérimentations réalisées a ainsi permis de valider les approches proposées, montrant leur avantage en terme de précision d’estimation et de robustesse aux transformations importantes.

 
Mots clés : SLAM, odométrie visuelle, vision, télémètre laser, filtre de Kalman, Gauss-Newton, alignement d'images direct.
  
Abstract
During the exploration of an unknown environment, a mobile platform needs to know its location to accomplish its mission. However, in GPS-denied situations, this localization requires the use of a map of the environment, which is unknown. This problem is typically solved through the joint estimation of the platform pose and the environment map and is known in the robotics Community under the acronym SLAM (Simultaneous Localization And Mapping). It is in this context that this research work is conducted, aiming at providing solutions to the problematics related to embedded camera motion estimation, also related to visual odometry. The main contributions of this thesis can hence be summarized in the following points:
Proposition of a feature initialization strategy based on image saliency information for the estimation of a moving camera trajectory.
Use of the continuous images scale-space representation to build algorithms with increased basin of convergence for the estimation of projective and 3D transformations.
Integration of the proposed image alignment algorithm into a SLAM system for the fusion of laser range finder 3D scans and images acquired by a camera.
The conducted experiments showed the benefits of the proposed approaches concerning the estimation precision and the robustness towards large transformations.
 
Keywords: SLAM, visual odometry, laser range finder, Kalman filter, Gauss-Newton, direct image-alignment. 

 

Composition du jury :
- Rapporteur : Ezio Malis, INRIA Sophia Antipolis
- Rapporteur : José Maria Martinez Montiel, Universidad de Zaragoza
- Examinateur : Mohammed Belkheiri, Université Amar Telidji de Laghouat
- Examinateur : Noureddine Ouadah, Centre de Développement des Technologies Avancées
- Directrice de thèse : Fatima Chouireb, Université Amar Telidji de Laghouat
- Co-encadrant : Guillaume Caron, Université de Picardie Jules Verne
- Co-encadrant : El Mustapha Mouaddib, Université de Picardie Jules Verne

UPJV