Machine learning,modèles physiques,hybridation,deep learning,statistiques,capteurs virtuels

Thèse de GOICHON Antoine sur theses.fr

Résumé :

Reposant essentiellement sur l’optimisation d’une fonction de coût « agnostique » ne prenant pas explicitement en compte les principes physiques sous-jacents aux problèmes étudiés, les techniques de Machine Learning restent généralement « aveugles » aux mécanismes qui gouvernent les phénomènes du monde réel. Ce qui limite leur généralisation à des contextes non couverts par les données d’entraînement ainsi que leur interprétabilité physique. A l’inverse, les modèles physiques sont interprétables par nature mais sont limités par l’état des connaissances métiers et scientifiques (CMS) et les puissances de calcul nécessaires à leur simulation peuvent devenir rapidement rédhibitoires dès lors qu’une résolution spatiale et/ou temporelle importante est nécessaire pour décrire correctement les phénomènes physiques mis en jeux. Le paradigme des « modèles hybrides » permet de combiner les avantages de ces deux mondes. Les avantages des modèles hybrides sont obtenus en mitigeant le caractère agnostique des méthodes purement ML par injection explicite de CMS dans les variables d’entrée et/ou dans le calcul d’optimisation de la fonction de coût lors de l’entraînement du modèle. De fait, leur mise en œuvre est aussi plus complexe et pose de nouveaux problèmes opérationnels qui doivent être investigués plus avant. En particulier, les relations entre l’architecture du modèle (NN, RNN, GAN, VAE) et la structure des équations physiques injectées dans la fonction de coût font actuellement l’objet de recherches actives. L’impact de l’hybridation des modèles sur la convergence des algorithmes d’optimisation utilisés ou encore la façon dont s’effectue le couplage des sorties de modèles physiques aux entrées d’un modèle ML sont à investiguer, notamment à cause des effets liés à l’introduction de ces variables fortement corrélées entre elles. Parmi les algorithmes de ML identifiés comme relativement adapté à l’hybridation, les AutoEncodeurs Variationnels (VAE) sont une classe de réseaux de neurones placés à l’intersection entre l’apprentissage profond et l’inférence bayésienne. Sous l’hypothèse que les données considérées peuvent être expliquées par un certain nombre de facteurs cachés, appelés variables latentes, les VAE ont pour but d’apprendre la relation qui existe entre ces données et les variables cachées. Cette relation se traduit sous la forme de lois de probabilités conditionnelles exprimant la vraisemblance d’une observation étant donné un état caché, et vice versa. La popularité croissante des VAE ainsi que la possibilité de structurer explicitement l’espace latent pour lui donner des propriétés désirables en font une solution intéressante pour la définition de modèles hybrides.

Encadrement : 

Sous la direction de Prof Nicolas PEYRET (ISAE-Supméca) et 
MCF Martin GHIENNE (ISAE-Supméca)

Localisation : ISAE-SUPMECA