Date
07 mar 2025
Type

Matthieu Fagot soutient sa thèse, le vendredi 7 mars à 10h00 dans l'amphithéâtre Ehresmann de l'UFR des Sciences, 

La soutenance se déroulera devant le jury suivant :
- M. Van Dat CUNG, PU, Univ. Grenoble Alpes
- Mme Nacima LABADIE, PU, Univ. de technologie de Troyes
- Mme Rym GUIBADJ, MdC, Univ. Littoral Côte d’Opale
- M. Jean Paul BOUFFLET, MdC Hdr, Univ. de technologie de Compiègne
- M. Gilles DEQUEN, PU, Univ. de Picardie Jules Verne
- M. Luiz Angelo STEFFENEL, PU, Univ. de Reims Champagne-Ardenne
- Mme Corinne Lucet, PU, Univ. de Picardie Jules Verne
- Mme Laure Devendeville, MdC Hdr, Univ. de Picardie Jules Verne
- M. Sébastien Horemans, PDG, Smile Pickup

Résumé : Cette thèse, réalisée en collaboration avec l’entreprise Smile Pickup, s’inscrit dans un contexte de forte croissance des livraisons de colis, notamment via des points relais. Smile Pickup, spécialisée dans les colis volumineux, doit relever des défis logistiques complexes liés à l’optimisation des tournées de véhicules, prenant en compte des contraintes variées : flotte hétérogène, périodes multiples, fenêtres de temps, pénalités de retard, ... Le Smile Pickup Problem (SPP) est une extension enrichie du PDPTW et appartient à la classe des problèmes NP-difficiles. Pour résoudre le SPP, nous avons d’abord développé un modèle exact basé sur la
Programmation Linéaire en Nombres Entiers afin de garantir des solutions optimales sur de petites instances. Ensuite, une métaheuristique de type Adaptive Large Neighbourhood Search a été mise en place pour traiter des instances de grande taille. Cette approche a permis d’obtenir des solutions de bonne qualité tout en réduisant significativement les temps de calcul par rapport aux méthodes exactes. Enfin, nous proposons un algorithme hybride, le Reinforcement Learning Large Neighbourhood Search (RL-LNS), combinant ALNS et apprentissage par renforcement profond. Une étude approfondie des ensembles de caractéristiques utilisées pour représenter l’environnement et des fonctions de récompense a permis de concevoir une stratégie de sélection plus efficace que celle de l’ALNS classique. De plus, le RL-LNS présente une excellente capacité de généralisation, démontrant ainsi son potentiel à améliorer les performances des méthodes classiques d’optimisation logistique sur des instances variées.

UPJV