Soutenances
2023
Meltem ÖZTÜRK Rapportrice, Université Paris-Dauphine Marc PIRLOT Rapporteur, Université de Mons Patrick MEYER Examinateur, IMT Atlantique de Brest Olivier SPANJAARD Examinateur, Sorbonne Université ---
La thèse traite de l’explication en aide multicritère à la décision, pour des problèmes de choix et de rangement. Elle complète l’état de l’art en proposant une nouvelle approche de l’explication d’une comparaison par paire d’alternatives basée sur la définition de ce que nous appelons un contexte: un triplet rassemblant une relation binaire sur les alternatives, un sous-ensemble de cette dernière composé de comparaisons par paire supposées admises pour le décideur, et un schéma déductif. Le schéma déductif explicite les mécanismes en jeu dans la déduction de la comparaison par paire à expliquer à partir des comparaisons par paire admises. Les mécanismes de déduction considérés s’appuient sur les propriétés de la relation binaire à laquelle appartiennent la comparaison par paire à expliquer et l’ensemble des comparaisons par paire admises. Les relations binaires considérées dans le travail ont toutes pour point commun d’être représentables par un modèle additif. Les propriétés du modèle additif retenues sont celles de transitivité et d’indépendance. Le choix porté sur ces propriétés se justifie par le fait qu’elles correspondent à des modes de raisonnement intuitifs pour les décideurs. À partir de ces propriétés, nous avons construit différents schémas déductifs auxquels peut être conforme l’explication d’une comparaison par paire d’alternatives. Ensuite, nous avons décrit et implémenté différents algorithmes de calcul d’explications conformes à ces schémas déductifs. Ces algorithmes ont permis de mesurer l’expressivité des schémas déductifs auxquels ils se rapportent. On a ainsi pu observer expérimentalement que les propriétés considérées suffisent à reconstruire intégralement, et à partir de leurs paires critiques, toutes les relations d’ordre linéaire additives d’ensembles d’items de cardinalité inférieure ou égale à six. Les autres contributions de la thèse introduisent notre approche de l’explication dans les processus d’aide à la décision multicritère. Le cadre de décision traité est celui dans lequel sont en présence deux acteurs: le décideur et un analyste dont le rôle est d’aider le décideur. Le problème considéré concerne le choix d’un sous-ensemble d’alternatives et où chaque critère possède exactement deux niveaux d’évaluation. Nous montrons comment l’explication peut permettre à l’analyste de soutenir sa recommandation auprès du décideur, de justifier les conclusions robustes obtenues, mais aussi d’éliciter les préférences du décideur à partir de l’explication des conclusions robustes. Pour rendre concrète cette fonction d’élicitation, nous ébauchons un protocole interactif qui, à travers les réactions du décideur aux explications qui lui sont présentées, rend possible la collecte d’information préférentielle additionnelle susceptible de faire progresser le processus d’aide vers la recommandation à formuler. En ce qui concerne l’explication de la recommandation finale, nous avons conduit des expérimentations numériques destinées à mesurer la proportion de recommandations explicables à l’aide du schéma de couverture et à partir de sous-comparaisons par paire non décomposables. Nous avons enfin proposé quelques façons de remédier aux situations d’inexplicabilité.
François CLAUTIAUX Rapporteur & Examinateur, Université de Bordeaux Alexis TSOUKIAS Rapporteur & Examinateur, CNRS - Université Paris Dauphine Claudia ARCHETTI Examinatrice, ESSEC Business School Odile BELLENGUEZ Examinatrice, IMT Atlantique ---
Les systèmes d’aide à la décision basés sur l’optimisation combinatoire trouvent des applications dans divers domaines professionnels. Cependant, les décideurs qui utilisent ces systèmes ne comprennent souvent pas les concepts mathématiques et les principes algorithmiques qui les sous-tendent. Ce manque de compréhension peut entraîner du scepticisme et une réticence à accepter les solutions générées par le système, érodant ainsi la confiance placée dans le système. Cette thèse traite cette problématique dans le cas du problème de planification d’employés mobiles, en anglais extit{Workforce Scheduling and Routing Problem} ( extit{WSRP}), un problème d’optimisation combinatoire couplant de l’allocation de ressources humaines et du routage. Tout d’abord, nous proposons un cadre qui modélise le processus d’explication de solutions pour les utilisateurs d’un système de résolution de WSRP, permettant d’aborder une large gamme de sujets. Les utilisateurs initient le processus en faisant des observations sur une solution et en formulant des questions liées à ces observations grâce à des modèles de texte prédéfinis. Ces questions peuvent être de type contrastif, scénario ou contrefactuel. D’un point de vue mathématique, elles reviennent essentiellement à se demander s’il existe une solution faisable et meilleure dans un voisinage de la solution courante. Selon les types de questions, cela conduit à la formulation d’un ou de plusieurs problèmes de décision et de programmes mathématiques. Ensuite, nous développons une méthode pour générer des textes d’explication de différents types, avec un vocabulaire de haut niveau adapté aux utilisateurs. Notre méthode repose sur des algorithmes efficaces calculant du contenu explicatif afin de remplir des modèles de textes d’explication. Des expériences numériques montrent que ces algorithmes ont des temps d’exécution globalement compatibles avec une utilisation en temps quasi-réel des explications par les utilisateurs. Enfin, nous présentons un design de système structurant les interactions entre nos techniques de génération d’explications et les utilisateurs qui reçoivent les textes d’explication. Ce système sert de base à un prototype d’interface graphique visant à démontrer l’applicabilité pratique et les potentiels bénéfices de notre approche dans son ensemble.
Anissa Mokraoui, Rapporteur & Examinateur, Professeur des Universités, Université Paris XIII Vincent Gripon, Rapporteur & Examinateur, Professeur des Universités, IMT Atlantique Stéphane Canu, Examinateur, Professeur des Universités, INSA de Rouen Hervé Le Borgne, Examinateur, Ingénieur-Chercheur, CEA LIST Florian Yger, Examinateur, Maître de conférences, LAMSADE ---
En 2015, alors que les réseaux de neurones convolutionnels atteignaient des performances sur- humaines en reconnaissance d’image à grande échelle, la communauté a commencé à observer que ces performances peinaient à se reproduire avec de petits volumes de données. Les algorithmes d’apprentissage profond présentaient de faibles résultats lorsqu’on leur demandait de classifier des images parmi des classes pour lesquelles on ne leur fournissait qu’une poignée d’exemples. À l’inverse, la capacité à reconnaître de nouveaux concepts à partir de très peu d’exemples est considérée comme une capacité naturelle des humains. Ces observations ont donné lieu à l’apparition, dans le paysage de l’apprentissage machine, du Few-Shot Learning, ou apprentissage à partir de peu de données (peu de shots). Au sein de ce nouveau domaine, nous avons rapidement développé des algorithmes dédiés, construit des jeux de données et établi de nombreuses règles et configurations restrictives pour évaluer les modèles d’apprentissage à partir de peu de données. Si ce procédé s’est montré très propice à des itérations rapides, et a mené à des découvertes intéressantes, il a également restreint la recherche en apprentissage à partir de peu d’exemples à la résolution d’un problème hypothétique. Nous observons que ce problème, créé artificiellement, est, par de nombreux aspects, non représentatif des problèmes industriels réels que nous avons rencontrés à Sicara. Dans cette thèse, nous mettons en évidence plusieurs divergences entre les hypothèses utilisées en recherche académique et les applications réelles de l’apprentissage à partir de peu d’exemples. Nous proposons des contre-mesures pour réduire cet écart. Tout d’abord, la configuration standard de la classification d’images à partir de peu d’exemples suppose que les quelques exemples d’images disponibles (l’ensemble support) sont issus de la même distribution que les images à classifier (l’ensemble des requêtes). En réalité, cette hypothèse est souvent non vérifiée, par exemple lorsque l’ensemble support correspond à des images acquises dans un environnement contrôlé (e.g., le catalogue d’un site d’e-commerce) tandis que les images requêtes sont plus chaotiques (e.g., des photographies prises par des utilisateurs individuels). Nous formalisons ce problème sous la dénomination de Few-Shot Learning under Support-Query Shift, ou apprentissage à partir de peu d’exemples avec changement de distribution entre le support et les requêtes. Nous proposons des jeux de données et des procédés d’évaluation dédiés, ainsi qu’une première méthode pour faciliter les efforts de recherche consacrés à ce problème. Par ailleurs, dans de nombreuses applications de l’apprentissage à partir de peu de données, nous ne pouvons pas assurer que les images requêtes appartiennent effectivement aux classes définies dans l’ensemble support. Ce problème, connu dans la littérature sous le nom de Few-Shot Open-Set Recognition, ou reconnaissance à partir de peu d’exemples dans un ensemble ouvert, était déjà abordé dans des précédents travaux. Cependant, les méthodes complexes développées pour ce problème ne montraient pas d’incrément notable par rapport à des méthodes naïves. Dans cette thèse, nous mettons à profit l’ensemble des requêtes par une approche simple et raisonnée pour atteindre des performances utilisables en reconnaissance à partir de peu d’exemples dans un ensemble ouvert. Enfin, nous avons observé que les bancs de test les plus populaires dans la recherche académique présentaient un biais important. Ainsi, les modèles étaient évalués sur des tâches de classification à partir de peu d’exemples non représentatives d’applications réelles. En effet, dans ces bancs de test, nous avions tendances à demander aux modèles de classifier parmi des classes correspondant à des concepts très distants e.g., distinguer une tarte d’un serpent. À l’inverse, la plupart des applications du monde réel impliquent une distinction entre des concepts très proches e.g., des bactéries d’autres bactéries, des outils d’autres outils, ou des composants électroniques d’autres composants électroniques. Dans cette thèse, nous proposons une nouvelle méthode d’évaluation pour résoudre ces biais.
Sébastien Lefèvre Rapporteur & Examinateur Professeur des Universités, Université Bretagne-Sud Stefan Duffner Rapporteur & Examinateur Maître de Conférences, Université de Lyon Cécile Capponi Examinatrice Professeur des Universités, Université Aix-Marseille Laurent Amsaleg Examinateur Directeur de Recherche, CNRS Vincent Mousseau Examinateur Professeur des Universités, Université Paris- Saclay Emmanuel Arbaretier Invité Airbus Protect ---
Dans le paysage en constante évolution de l’Industrie 4.0, cette thèse aborde deux défis cruciaux visant à améliorer le diagnostic de défauts : une interprétation efficace des données multimodales provenant de divers capteurs et une exploitation intelligente des informations contenues dans des rares rapports de maintenance spécialisés. Le premier défi implique la synthèse de flux de données de diverses modalités en une représentation expressive s’adaptant aux conditions dynamiques du système. Ceci nécessite le développement de stratégies innovantes pour traiter les données complexes efficacement en temps et en mémoire. Le second défi concerne l’extraction d’informations précieuses à partir d’un nombre limité de rapports de maintenance rédigés par des experts. Cette tâche est rendue complexe par le vocabulaire spécifique que ces rapports possèdent. En réponse à ces défis, la thèse présente une architecture d’apprentissage profond unique qui gère habilement les longs flux de données multimodales non alignées. De plus, elle propose une méthode transductive innovante pour l’apprentissage à quelques exemples textuels, qui exploite les données étiquetées limitées disponibles pour améliorer les performances de prédiction, tout en assurant la confidentialité des informations sensibles. Cette thèse est organisée en deux parties principales, la première traite de l’apprentissage multimodal pour le diagnostic des défauts, et la seconde cible l’apprentissage à quelques exemples en TAL pour l’analyse des données textuelles.
Mr Eugenio CINQUEMANI (Rapporteur), Chargé de Recherche, INRIA Grenoble-Alpes, Grenoble (France) Mr Alain DENISE, Professeur, Laboratoire Recherche en Informatique (LRI), Université Paris Saclay (France) Mme Giuliana FRANCESCHINIS, Professeur, Directeur de Recheche, Dipartimento di Informatica, Università Piemonte Orientale, Alessandria (Italie) Mr Stefan HAAR , Directeur de Recheche, INRIA et Ecole Normale Superieur Paris Saclay (France) Mr Dave Pareker (Rapporteur), Professeur, Department of Computer Science, University of Oxford (Royaume-Uni) Mme Verena WOLF (Rapportrice), Professeur, Saarland University (Allemagne) ---
In this presentation I am going to overview a few contributions which revolve around the idea of employing hybrid automata to formally analyse a stochastic model. The talk will consist of three parts.
- An expressive statistical model checking framework. The stochastic model checking problem is concerned with assessing the probability with which a discrete-state stochastic model, most commonly a continuous-time Markov chain, satisfy a given property normally expressed though a temporal logic language. The expressiveness of the property languages has been historically constrained by the by the need to rely on numerical approaches in the verification process. Those limitations have been relieved, to a degree, with the extension of numerical model checking to timed-automata property languages. In this contribution I will show that by moving to the simulation-based family of model checking and by introducing a property specification formalism based on hybrid automata one can get rid of those limitations and obtain a very expressive formalism suitable for sophisticated performance analysis of stochastic models.
- Parametric verification of stochastic models. Complementary to the stochastic model checking problem is that of inference of a model’s parameters driven by the satisfaction of a target temporal behaviour. The goal in this case is to identify the regions of the parameter’s space that yield a positive probability to meet the target behaviour. By introducing the notion of satisfiability distance for basic time-bounded temporal modalities and by providing corresponding meter automata we were able to adapt Approximate Bayesian Computation, a likelihood-free parameter-inference scheme, to solve the parametric stochastic model checking problem.
- Formal analysis of stochastic oscillators. A stochastic oscillator can be thought of as a model that places most of the probability mass onto “noisy periodic paths” (of given average amplitude and average period). Differently from their continuous-deterministic counterpart, the characterisation of periodicity is not trivial as one has to account for the presence of stochastic noise all along a periodic trajectory. It has been shown that detection of sustained oscillation in a CTMC model boils down to a steady-state analysis problem of the CTMC combined with a noisy period detector deterministic finite automaton. As a follow up here we show that by adopting an hybrid automata formalism we obtain evolved periodicity detectors, that plugged within a stochastic simulation engine, allows one to assess sophisticated indicators such as the mean value and variance of the oscillation period as well as the oscillation amplitude. We further show how to adapt such hybrid automata so to assess the distance from a desired target oscillation period, resulting in an effective procedure that can be used for tuning stochastic oscillators.
Julien VELCIN, Professeur, Laboratoire ERIC - Université Lumière (Lyon 2) (Rapporteur) Lynda TAMINE-LECHANI, Professeur, Institut de Recherche en Informatique de Toulouse (Rapporteure) Fragkiskos MALLIAROS, Assistant professor, Laboratoire CVN, CentraleSupélec (Examinateur) Armelle BRUN, Professeure, Laboratoire LORIA, Université de Lorraine (Examinatrice) Marc AIGUIER, Professeur, Laboratoire MICS, CentraleSupélec (Président) Paul-Henry COURNÈDE, Professeur, Laboratoire MICS, CentraleSupélec (Co-encadrant de thèse) Céline HUDELOT, Professeure, Laboratoire MICS, CentraleSupélec (Directrice de thèse) ---
L’E-recrutement est devenu un outil de recrutement essentiel dans la société moderne, facilitant le processus de recrutement et générant une quantité significative de données numériques sous différents formats. Afin de gérer et d’analyser efficacement ces données, l’industrie a besoin de méthodes appropriées pour représenter ces données, car la représentation des données est fondamentale pour leur gestion leur analyse. Inspirée par le succès de l’Intelligence Artificielle (IA) dans d’autres domaines, cette thèse vise à exploiter l’IA pour aider à l’apprentissage de la représentation de données liées au recrutement Les données de recrutement peuvent être organisées de manière explicite ou implicite en structures de graphe, telles que des taxonomies de compétences prédéfinies et des graphes de transition d’emploi construits à partir des expériences professionnelles. Malgré leur richesse en connaissances normatives, ces données structurées graphiquement sont moins utilisées. Dans ce contexte, cette thèse tente d’exploiter ces données de recrutement structurées implicitement ou explicitement pour améliorer les représentations apprises liées au recrutement.
2022
Mme ATKINSON Katie (Rapportrice), Professeure, School of Electrical Enginering, Electronics and Computer Science (EEECS), Liverpool Mme CROITORU Madalina, Professeure, Laboratoire d’Informatique, de Robotique et de Microélectronique de Montpellier (LIRMM), Université de Montpellier Mr DESTERCKE Sebastien, Directeur de Recheche, HDR, CNRS, Heuristic and Diagnostic of Complex Systems (Heudiasyc, UMR 7253), Université de Technologie de Compiègne (UTC) Mr MARQUIS PIERRE (Rapporteur), Professeur, Centre de Recherche en Informatique de Lens (CRIL-CNRS, UMR 8188), Univesité d’Artois Mr PERNY Patrice (Rapporteur), Professeur, LIP6, CNRS, Sorbonne Université Mr SABOURET Nicolas, Professeur, Laboratoire Interdiciplinaire des Sciences du Numérique (LISN), université Paris-Sacaly, ---
Decision-aiding results from an interaction between an analyst and a user (decision-maker). The analyst aims to guide the user in building and understanding the recommendations of a particular decision problem. Nowadays, decision-aiding situations are pervasive : they can occur in situations where the analyst’s role is taken by a non-expert, even in some extreme cases by an artificial agent. This means that the artificial agent should ideally handle several aspects – such as learning the preferences, structuring the interaction, providing an explanation, and handling the user feedback, etc.– usually delegated to the human analyst. Thus, we need, on the one hand, some formal theory about preferences and, on the other hand, formal language enabling us to represent the dialogue and explain and communicate its outcomes to convince the user that what is happening is both theoretically sound and operationally reasonable. This HDR thesis, presented in view of obtaining an accreditation to supervise research, describes the research work I carried out as an assistant professor at CentraleSupélec, Université Paris-Saclay, during the last ten years. This work deals with developing formal and practical tools to meet the previous needs. The different contributions are based on concepts and tools from both Artificial Intelligence and Decision Theory. More precisely, three aspects will be addressed:
- Designing and setting up efficient preference learning and elicitation mechanisms, - Modeling and generating explanations for recommendations for complex decision problems - Designing an adaptive dialectical system
Guillaume Damiand, Directeur de Recherche CNRS, LIRIS, Université Claude Bernard (Rapporteur) Reiko Heckel, Professor, University of Leicester (Rapporteur) Nicolas Behr, Chargé de recherche CNRS, IRIF, Université Paris Cité (Examinateur) Bedrich Benes, Professor, University of Purdue (Examinateur) Céline Hudelot, Professeure, MICS, CentraleSupélec (Examinatrice) Jean-Luc Mari, Professeur, LIS, Université Aix-Marseille (Examinateur) ---
Dans cette thèse, nous proposons une formalisation des opérations de modélisation géométrique comme des règles de transformation de graphes.
- Dans une première partie, nous étudions la conception d’un langage dédié à base de règles. Nous décrivons les modèles combinatoires des cartes généralisées et orientées comme des graphes étiquetés, assujettis à des conditions de cohérence. À cette description topologique, s’ajoute une gestion de la géométrie à l’aide d’attributs. Cette formalisation permet l’étude des opérations de modélisation comme des règles de réécritures de graphes. Cette étude des règles couvre deux aspects : la préservation de la consistance du modèle et la généricité des opérations décrites. La préservation de la consistance est la motivation première pour l’utilisation des transformations de graphes afin de garantir qu’une opération produit des objets bien formés. Nous assurons la préservation de la consistance topologique et géométrique par le biais de conditions syntaxiques vérifiées statiquement sur les règles. Il convient aussi de s’assurer qu’une règle de réécriture est en adéquation avec les opérations usuelles manipulées en modélisation géométrique. En particulier, puisqu’une règle décrit exactement une transformation, nous étendons les règles en schémas de règles afin d’abstraire la topologie sous-jacente. Nous présentons une extension semi-globale de la réécriture usuelle par DPO en incorporant un produit de graphes simulant l’application d’une fonction de renommage. - Dans une seconde partie nous présentons un mécanisme d’inférence d’opérations. Partant du principe qu’une opération peut-être simplement décrite à partir d’un croquis ou d’un exemple, nous proposons de reconstruire des opérations à partir d’un exemple représentatif constitué d’un objet de départ et de l’objet cible. Le mécanisme d’inférence exploite la régularité des cartes généralisées et du langage dédié précédemment défini. Plus précisément, nous envisageons la question de l’inférence d’opérations topologiques comme la construction inverse de la spécialisation d’un schéma de règle vers une opération. La question de l’inférence des modifications géométriques pourrait admettre de multiples solutions, étant donné le type de géométrie et la nature des modifications appliquées. Ici, nous proposons de traiter des transformations affines de valeurs évoluant dans un espace vectoriel que l’on résout comme un problème de satisfaction de contraintes. Nous avons implémenté le mécanisme d’inférence dans Jerboa, une plateforme de conception de modeleurs. La première partie de cette thèse permet ainsi de construire un cadre formel qui est de facto masqué à l’utilisateur, mais demeure nécessaire pour la conception d’opérations de modélisations géométriques via notre mécanisme d’inférence.
Miguel Couceiro, Professeur, Université de Lorraine, Nancy, (Examinateur) Patrick Meyer, Professeur, IMT Atlantique, Brest, (Examinateur) Meltem Oztürk, Maître de Conférences HDR, PSL, Université Paris-Dauphine, (Rapportrice) Marc Pirlot, Professeur, Université de Mons, Belgique, (Rapporteur) Christian De Sainte Marie, Directeur de la recherche, IBM France, Orsay, (Invité) Paolo Scotton, Research Staff Member, IBM Research, Zürich, (Invité) ---
Le domaine de l’Aide à la Décision Multicritère (ADMC), s’intéresse à évaluer des alternatives suivant des critères dans le but de recommander la “meilleure” solution au décideur. Dans ce contexte, nous considérons le paradigme d’apprentissage de préférences - comparable à l’approche en Machine Learning - qui consiste à déduire à partir des observations passées du décideur, les paramètres du modèle qui correspondent au mieux à ses préférences. Notre modèle (MR-Sort) est issu de la famille des modèles de surclassement, dans lequel une alternative a surclasse une autre alternative b s’il existe une forte coalition de critères (majorité) favorable au surclassement de a par rapport à b. Dans la littérature de l’ADMC, les méthodes et algorithmes étudiés pour les problèmes de tri - classification dans des catégories prédéfinies et ordonnées - ont toujours eu pour but l’inférence de modèles MR-Sort connaissant le sens de préférence des critères et à partir de préférences monotones (croissantes ou décroissantes). Dans cette thèse, nous étendons l’état de l’art à l’étude des préférences dites “single-peaked” (resp. “single-valley”), qui améliorent l’expressivité des modèles MR-Sort. Un critère single-peaked est caractérisé par deux monotonies successives (croissante puis décroissante). Ainsi, nous étudions des problèmes d’apprentissage des paramètres de MR-Sort à partir de préférences monotones et single-peaked, quelle que soit la connaissance à priori des sens de préférences des critères. Nous proposons une méthode exacte, des heuristiques et des tests pour évaluer et comparer nos algorithmes suivant le temps de calcul, le taux de classification et de restitution des sens de préférences.
M. Alain GIORGIETTI Université de Franche-Comté Rapporteur M. Frédéric LOULERGUE Université d’Orléans Rapporteur M. Claude MARCHÉ Université Paris-Saclay Examinateur M. Mathieu JAUME Sorbonne Université Examinateur M. Louis RILLING DGA Invité Mots-Clefs : Méthodes formelles, Vérification déductive, Frama-C, Language de spécification ---
La spécification et la vérification d’exigences haut niveau (comme des propriétés de sécurité, telles que l’intégrité des données ou la confidentialité) reste un défi pour l’industrie, alors que les cahiers des charges en sont remplis. Cette thèse présente un cadre formel pour les exprimer appelé les méta-propriétés, décrites pour un langage déprogrammation abstrait, et centrées sur les propriétés liées aux manipulations de la mémoire et les invariants globaux. Ce cadre formel est appliqué au langage C avec HILARE, une extension d’ACSL, qui permet la spécification d’exigences haut niveau sur des programmes C de grande taille avec facilité. Des techniques de vérification pour HILARE, basées sur la génération d’assertions locales et la réutilisation des analyseurs de Frama-C existants, sont présentées et implantées dans le greffon MetAcsl pour Frama-C. Une méthodologie pour l’évaluation des propriétés de grands programmes est détaillée, articulant les méta-propriétés, les techniques de vérification et les particularités du C. Cette méthodologie est illustrée par un cas d’étude complexe : le bootloader de Wookey, un périphérique de stockage chiffré. Enfin, nous explorons une autre manière de vérifier une exigence de haut niveau en la déduisant à partir d’autres, via un système formel prouvé en Why3 et intégré dans MetAcsl.
2021
M. Amaury Habrard Université Jean Monnet, Saint-Etienne Rapporteur M. José Hernández-Orallo Universitat Polichnècnica de València Rapporteur Mme Élisa Fromont Université Rennes 1 Examinatrice M. Aurélien Bellet Inria, Université de Lille Examinateur M. Pablo Piantanida Université Paris-Saclay Examinateur Mots-Clefs : Apprentissage automatique, Adaptation de domaine, Représentations Invariantes ---
L’apprentissage automatique, c’est-à-dire à partir d’un jeu de données, a considérablement amélioré les performances des systèmes d’Intelligence Artificielle. Cependant, ces algorithms ne sont pas infaillibles; ils sont sensibles aux changements de distribution des données, une situation omniprésente dans l’industrie. L’Adaptation des modèles d’apprentissage automatique a fait l’objet de recherche fructueuse. Un outil fondamental est l’apprentissage de représentations invariantes, c’est-à-dire insensible au changement de distributions dans les données. Dans une première partie de cette thèse, nous avons montré que l’apprentissage de représentations invariantes nous expose au risque de détruire leur adaptabilité, une quantité que nous ne pouvons malheureusement pas contrôler. Cette thèse propose une analyse théorique introduisant un nouveau terme d’erreur, appelé erreur de réduction de classe d’hypothèse, permettant de capturer la bonne adaptabilité d’une représentation. Dans un second temps, ces travaux de thèse unifient deux champs de recherche en adaptation, l’échantillonnage d’importance et l’apprentissage de représentations invariantes, sous un même cadre théorique facilitant leur compréhension. En particulier, nous montrons la nécessité du biais inductif pour l’apprentissage adaptatif, remettant l’expertise humaine au centre de l’apprentissage automatique. Enfin, nous remettons en cause une hypothèse fondamentale du paradigme d’apprentissage de représentations invariantes; l’accès à un échantillon large de données non-labellisées de la nouvelle distribution. En effet, cette hypothèse est rarement vérifiée en pratique, où nous souhaiterions idéalement pouvoir adapter un modèle avec peu d’exemples. Cette thèse contribue à cette nouvelle problématique en le formalisant et en apportant à la communauté une base de code pour une recherche reproductible. De plus, nous montrons qu’une hybridation simple entre l’adaptation par le Transport Optimal et l’apprentissage avec peu d’exemples, fournit déjà une référence solide pour cette tâche.