Ce tutoriel a pour objectif de faire un étatdes lieuxdes travaux sur l’éthique de l’IA. Il sera axé principalement sur les travaux réalisés au sein de la communauté des chercheurs en IA. Néanmoins, une introduction permettant de définir l’éthique et ses origines philosophiques sera nécessaire afin d’en saisir les principeset, de lever les éventuelles confusions avec les notions demorale et de déontologie. Il est possible de classer les travaux existant en trois groupes.
Un premier groupe concerne l’IA numérique; à savoir les algorithmes d’apprentissage automatique. L’accent sera mis sur l’interprétabilité qui est une composante essentielle de l’éthique pour ce type d’algorithmes. Afin de détecter les biais présents dans les données et de s’assurer que les modèles d’apprentissage fonctionnent correctement, plusieurs approches visant à expliquer ces modèles ont été proposées dans la littérature. Cette explication garantit la conformité au RGPD. Il y a plusieurs niveaux d’interprétabilité. On peut s’intéresser à l’explication des prédictions fournies par les algorithmes, à l’explication globale des modèles construits ou bien, à l’identification des variables pertinentes dans le modèle. Un autre aspect, qui contribue à l’interprétabilité des modèles, est l’injection des connaissances du domaine. Par ailleurs, différentes approches sont utilisées pour fournir une explication. D’un côté, il y a les méthodes dites «proxy» où des modèles interprétables, comme les fonctions linéaires, les arbres de décision et les règles logiques, sont utilisés pour imiter (et expliquer) les prédictions d’un modèle dit «boite noire» comme les réseaux de neurones. D’un autre, il y a les méthodes qui permettent d’identifier les paramètres (ou les variables) importants dans le modèle d’apprentissage comme les méthodes basées sur le gradient, utilisées à postériori (après la construction du modèle) et le mécanisme d’attention qui peut être intégré dans la construction des modèles. L’injection des connaissances du domaine dans un algorithme d’apprentissage automatique permet de guider ses prédictions et d’ouvrir la"boite noire"en rendantinterprétablesles concepts appris par le modèle. Le deuxième groupe de travaux en IA relatifs à l’éthique concerne les approches dites symboliques(ou cognitives). Au sein de ces dernières, il y a également différentes méthodes. Certaines tentent de concevoir des agents capables de respecter des règles/normes données a priori, tandis que d’autres proposent de valider à postériori qu’un agent respectera des règles éthiques qui lui sont extérieures. Certaines approches s’attachent àrendre éthiques des agents individuellement, tandis que d’autres argumentent pour une conception d’agents éthique en prenant en compte l’interaction avec leur environnement, les autres agents et l’utilisateur. Enfin, le troisième groupe concerne les approches dites numériques-symboliques, dans la mesure où elles combinent des approches numériques et des approches symboliques. C’est ce dernier type que nous illustrerons sur un cas pratique issu d’un projet en e-santé. Nous montrerons, sur des données patients, les avantages à utiliser les systèmes multi-agents pour traiter l’effet "Boite noires" des algorithmes d’apprentissage automatique.
Intervenants
Nadia Abchiche-Mimouni (nadia.abchichemimouni@univ-evry.fr), Laboratoire IBISC, Université Paris-Saclay, Univ Evry, IBISC, 91020, Evry-Courcouronnes, France.
Farida Zehraoui (farida.zehraoui@univ-evry.fr), Laboratoire IBISC, Université Paris-Saclay, Univ Evry, IBISC, 91020, Evry-Courcouronnes, France.
Lien présentation
Lien de la vidéo de la démonstration
L’objectif de ce tutoriel est de présenter les concepts de base de la théorie des fonctions de croyance (également nommée théorie de Dempster-Shafer ou théorie de l'évidence) et de les mettre en œuvre dans le cadre de l'apprentissage automatique. Cette théorie, qui est une alternative à la théorie de probabilité et à la théorie des possibilités, permet de modéliser des informations élémentaires à l'aide de fonctions de croyance et de les combiner à l'aide de différents opérateurs selon des hypothèses sur les sources produisant ces informations. Elle est donc non seulement bien adaptés pour la fusion d'informations mais elle permet également, dans le cadre de l'apprentissage, de modéliser les incertitudes sur les données (par exemple pour l'apprentissage partiellement supervisé) et sur les prédictions (sortie de classifieurs évidentiels). Ainsi dans le cadre de cet atelier, outre une présentation et la mise en œuvre des principes de base de cette théorie, nous présenterons et utiliserons des algorithmes évidentiels classiques d'apprentissage automatique (E-KNN, ECM,…).
Intervenants
David Mercier (LGI2A, Université d'Artois), david.mercier@univ-artois.fr, co-responsable du thème scientifique Décision et Fusion d'Informations du LGI2A, membre du bureau de l'association Belief Functions and Applications Society (BFAS), cours aux écoles de Printemps de BFAS en 2015 et 2017.
Eric Lefevre (LGI2A, Université d'Artois), eric.lefevre@univ-artois.fr (tél: 03/21/63/23/00 poste 121318), co-responsable du thème scientifique Décision et Fusion d'Informations du LGI2A, membre de BFAS, cours sur les fonctions de croyance en Master2 à l'Institut Supérieur de Gestion de Tunis en 2017.
Lien présentation
La programmation par contraintes (CP pour Constraint Programming) est une technologie permettant la modélisation et la résolution pratique de problèmes combinatoires sous contraintes. Deux formalismes sont particulièrement utilisés : SAT (Satisfiability Testing), où les variables sont booléennes et CSP (Constraint Satisfaction Problem) où les variables sont définies sur des domaines finis. La programmation par contraintes bénéficie d’un éventail riche de concepts de modélisation (contraintes globales) et d’algorithmes et heuristiques adaptés à une exploration efficace de l’espace de recherche. Des bibliothèques de modélisation développées en Python, ont été rendues disponibles récemment :PyCSP3 et PySAT. Pendant le tutoriel, elles permettront d’illustrer quelques facettes importantes de l’étape de modélisation (en utilisant notamment des Jupyter notebooks). La présentation de quelques algorithmes (de filtrage), d’heuristiques de recherche et de techniques d’apprentissage (de clauses) sera accompagnée de cas pratiques basés sur l’utilisation des solveurs ACE et Choco (CP) et Glucose (SAT).
Intervenants
Gilles Audemard, Professeur des universités, CRIL Univ. Artois & CNRS, co-développeur du solveur SAT Glucose et du site xcsp.org. Email : audemard@cril.fr
Christophe Lecoutre, Professeur des universités, CRIL Univ. Artois & CNRS, co-développeur du solveur ACE, de la bibliothèque PyCSP3. Email: lecoutre@cril.fr
Charles Prud’homme, Enseignant-chercheur, IMT Atlantique, co-développeur du solveur Choco. Email :charles.prudhomme@imt-atlantique.fr
Lien présentation
Les systèmes de recommandation sont des programmes qui choisissent les options à présenter à des utilisateurs parmi un grand nombre de possibilités. Ils permettent par exemple de recommander la prochaine vidéo à regarder, le prochain morceau à écouter, les photos à montrer... Suivant le contexte, i.e. suivant le mode d’interaction entre le système et les utilisateurs, et suivant les données à la disposition du système, ces programmes utilisent des approches complètement différentes :
Ce tutoriel présente rapidement l'ensemble de ces approches puis détaille les enjeux et les solutions de l'état de l'art en filtrage collaboratif et en bandits-manchots.
Intervenants
Lien présentation
La théorie de TRIZ a introduit des notions clés dans le domaine de l’innovation tout en restant quasi-inconnue du grand public. Le but était de créer un algorithme qui maximiserait les chances d’innover en résolvant un problème. Parmi ces notions on retrouve les paramètres TRIZ, les contradictions, les principes inventifs, la matrice d’Altshuler ou encore l’analyse substance-champ. Ces outils ont été développés pour faciliter la formulation et la résolution de problèmes.
Avec les possibilités qu’apportent l’IA notamment pour la fouille de texte, la théorie de TRIZ peut être encore étendue. Parmi les approches envisagées on retrouve les Transformers, GANs ou encore CRFs qui sont exploités pour extraire les notions clés qui permettront de comprendre des inventions avant de s’en inspirer pour innover.
Ce tutoriel abordera des éléments théoriques puis applicatifs.
Intervenants
Denis Cavallucci, professeur des universités, Denis Cavallucci enseigne l’ingénierie de l’innovation à l’INSA Strasbourg et intervient régulièrement dans une dizaine d’universités dans le monde. Il est actuellement responsable de l’équipe de recherche CSIP (Conception Systèmes d’Information et Processus Inventifs) au sein du laboratoire de recherche ICube, en charge notamment des sujets Industrie du Futur et Usine intelligente.
Guillaume Guarino, doctorant en 3ème année dans l'équipe CSIP (Conception Systèmes d’Information et Processus Inventifs) au sein du laboratoire de recherche ICube à Strasbourg. Guillaume Guarino, titulaire d'un diplôme d'ingénieur en Mécatronique, développe des algorithmes de fouille appliqués à la conception inventive pour automatiser la recherche d'informations clés dans des documents textuels lors de la résolution de problèmes industriels.
Lien présentation
Face à aux grandes quantités de données disponibles actuellement, les tâches des analystes ne se formulent pas toujours dans le cadre de l’apprentissage supervisé, qui vise à prédire des étiquettes, pouvant être discrètes (classement) ou continues (régression). L’apprentissage non supervisé est aussi une préoccupation des analystes notamment pour des tâches de regroupement ("clustering") ou de recherche de liens. Dans ce dernier cas, le but visé est d’identifier des régularités dans les données, permettant aux analystes de mieux comprendre le contenu des données, de disposer de vues synthétiques et d’extraire des connaissances. Ces régularités, encore appelés motifs, constituent lecadre dans lequel se place ce tutoriel. Les motifs constituent en effet des connaissances qui permettent de résumer ou caractériser les données, fournissant aux analystes de riches informations sur les données dont ils disposent. Il existe de très nombreux types de motifs d’intérêt, suivant les types de données considérées ainsi que les applications visées. La diversité des motifs qui peuvent ainsi être extraits nécessite une bonne maîtrise de leur catégorisation, dont un bref panorama sera dressé au début du tutoriel.
L’objectif du tutoriel est ensuite de s’intéresser aux motifs dit graduels, qui, de façon schématique, extraient à partir de données quantitatives, des connaissances qui s’expriment linguistiquement sous la forme "plus X1 est A, plus X2 est B" dans le cas le plus basique. Le tutoriel vise à fournir aux participants une vue d’ensemble des travaux menés au cours de la dernière décennie, couvrant plusieurs aspects allant de la discussion des diverses sémantiques qui peuvent leur être associées, la présentation des algorithmes qui ont été proposés pour les extraire de façon efficace pour chaque sémantique, ainsi que la description de diverses applications qui les mettent en œuvre.
Intervenants
Dans de nombreuses applications pratiques, telles que la médecine, la banque, l'assurance, etc., il est important d'avoir des garanties d'exactitude pour les prédictions générées. Cependant, peut-on faire quelque chose si ni plus de données ni de modèles plus compliqués permettent d'atteindre la précision requise de 95 % ? Ce tutoriel vous présentera une réponse positive.
L'apprentissage conforme (Conformal learning) est une approche qui peut être utilisée en plus de n'importe quel algorithme prédictif pour les tâches de classification et de régression. Il permet d'atteindre le niveau de précision prédéfini par l'utilisateur au sens statistique. De plus, le choix de la fonction de non-conformité (nonconformity function), le seul méta-paramètre de l’apprentissage conforme, aboutit à une prédicteur conforme avec des propriétés différentes. Cependant, il y a un prix à payer. Au lieu de point prediction (un label de classe ou un nombre), les prédicteurs conformes aboutissent à des region predictions (un ensemble de labels ou un intervalle numérique) Dans ce tutoriel, vous découvrirez les principes théoriques de la prédiction conforme, expérimenterez avec différents algorithmes et fonctions de non-conformité, et explorerez les extensions et les applications de l'apprentissage conforme.
Intervenants
Marharyta ALEKSANDROVA (https://www.linkedin.com/in/marharyta-aleksandrova-8b567245/) est actuellement une chercheuse post-doctorat à l'Université du Luxembourg. En 2017, elle a terminé ses études doctorales dans le cadre d’une cotutelle entre l'Université de Lorraine (France) et l'Université Nationale Technique d'Ukraine « Igor Sikorsky Kyiv Polytechnic Institute » (Ukraine). Marharyta a été exposée à diverses applications de la science des données et a travaillé sur plusieurs projets de recherche européens et nationaux.
Lien présentation
Le développement de logiciels tels que les solveurs de résolution ou d’optimisation sous contraintes (SAT,PB,CP,LP,MILP,etc.) ou les solveurs en argumentation s’accompagne nécessairement d’une phase d’expérimentation permettant d’évaluer les performances des fonctionnalités implantées. Pour chacunedes campagnes expérimentales considérées dans ces précédents domaines, il fautalors collecter et analyser des statistiques relatives à leur exécution et qui, le plus souvent, possèdent des méthodologies communes. Néanmoins, il existe probablement autant de pratiques et de scripts permettant d’extraire ces statistiques et de tracer les figures associées que de chercheurs dans ces domaines. Ce tutoriel tente de fournir une simplification des méthodes d’extraction et d’analyse de résultats expérimentaux à travers l’usage d’une bibliothèque Python les unifiant : Metrics. Il décrit ainsi la chaîne complète d’outils conçue danscette optique et met l’accent sur le partage et la reproductibilité des résultats obtenus. Plusieurs applications sont proposées et illustrent l’usage de Metrics en rejouant l’analyse de campagnes et compétitions des différents domaines cités. La présentation suit le format des notebooks Jupyter et pourra, de ce fait, être reproduite directement par les participants.
Intervenants
Thibault Falque est actuellement doctorant au sein du CRIL à Lens, France depuis décembre 2020 financé par l’entreprise Exakis Nelite. Sa recherche seconcentre sur l’optimisation et la planification des ressources aéroportuaires.
Romain Wallon a obtenu son doctorat au sein du CRIL à l’Université d’Artois, Lens, France, en décembre 2020. Après un post-doctorat passé au LIX/Poly-technique à Palaiseau entre octobre 2020 et septembre 2021 dans l’équipe OptimiX, il est actuellement maître de conférences au sein du CRIL à Lens, France, depuis octobre 2021. Sa recherche se concentre sur la résolution du problème de cohérence propositionnelle, notamment par le biais du raisonnement pseudo-booléen. Il étudie également diverses applications des solveurs SAT, comme l’optimisation sous contraintes et la compilation de connaissances.
Hugues Wattez a obtenu son doctorat au sein du CRIL à l’Université d’Artois, Lens, France, en décembre 2021. Il est actuellement post-doctorant au LIX/Polytechnique à Palaiseau depuis février 2022 dans l’équipe OptimiX. Sarecherche se concentre sur les solveurs de contraintes et l’application de techniques en apprentissage automatique pour que ceux-ci se configurent de façon autonome.
Le but de ce tutoriel est d’étudier les différents modes de communication FIPA entre agents. Il s’agit ici d’agents à gros grain, possédant des rôles, reliés à des services, utilisant un mécanisme de boite aux lettres. Différents types de communication sont possibles : directs et nommés, par broacast, via des protocoles pré-définis. Ces communications inter-agent peuvent être utilisées pour simuler les communications complexes entre web-services, applications réparties, ... Dans ce tutoriel, progressifs, vous apprendre à créer des agents Jade, individuels, puis communiquants sous diverses formes pour les appliquer à la gestion/simulation d'échanges de messages entre des voyageurs souhaitant réserver un voyage combiné ou non et des services d’informations sur des voyages. Ces agents seront développés en Java, avec la plateforme JADE (https://emmanueladam.github.io/JadeUPHF/).
Intervenants
Dans ce tutoriel, nous présenterons une approche logique de la planification cognitive. Le but de celle-ci est de changer l’état cognitif d’un agent, y compris ses attitudes épistémiques (par exemple, ses connaissances et ses croyances), ses motivations (par exemple, sesintentions) et ses émotions. La première partie du tutoriel sera consacrée à présenter le cadre théorique. Nous introduirons d’abord les concepts de base de la logique épistémique et de la planification. Ensuite, nous présenterons le modèle logique de la planification cognitive en nous focalisant sur ses propriétés formelles et sa complexité. Dans la seconde partie du tutoriel, nous présenterons deux applications de l’approche : i) un agent conversationnel persuasif dans le cadre du conseil sportif et de l’entretien motivationnel ; ii) un agent artificiel pour un jeu collaboratif. Le modèle de planification cognitive ainsi que les applications présentées dans ce tutorielont été développées dans le cadre du projet ANR PRCE CoPains (« Cognitive Planning inPersuasive Multimodal Communication »).
Intervenants
Emiliano Lorini est directeur de recherche CNRS et co-résponsable de l’équipe LILaC à l’Institut de Recherche en Informatique de Toulouse (IRIT). Il s’intéresse à l’analyse formelle, à l’aide de la logique et de la théorie des jeux, du raisonnement, la prise de décision, de la planification et des émotions des agents humains et des agents artificiels ainsi que de leurs interactions. Il est coordinateur scientifique du projet ANR CoPains sur la planification cognitive. Dans ces derniers années il a publié plusieurs articles au sujet de la planification épistémique et cognitive en connexion avec la logique épistémique et la révision des croyances.
Dominique Longin est chercheur CNRS HDR au sein du département IA de l’IRIT depuis 2022. Il s’intéresse à la représentation des connaissances et à la modélisation du raisonnement à l’aide de la logique. Le point commun à toutes ses recherches est l’utilisation de concepts associés habituellement aux humains (tels les états mentaux) afin de caractériser les choses du point de vue d’un agent artificiel, et comme pourrait le faire un être humain. Il a appliqué ce savoir-faire à différents domaines tels : le raisonnement sur les actions, l’intention,la confiance, les émotions, la responsabilité, la délégation, etc. Depuis plus récemment, il s’intéresse aux réseaux à base de pointes (spiking neural networks) sur lesquels porte l’ANR PRC ALoRS. Il participe également au projet TouIST développé au sein du département d’IA relatif à une interface de haut niveau pour les démonstrateurs SAT, SMT et QBF.
Frédéric Maris est maître de conférences (HDR) à l’Université Toulouse 3 depuis septembre 2014, et mène ses recherches au sein du département IA de l’IRIT. Ses intérêts de recherche portent notamment sur la planification, la théorie de la complexité, et les aspects algorithmiques du raisonnement. Au cours des dernières années, il apporté diverses contributions dans ce domaine et en particulier pour la planification temporelle et épistémique et l’utilisation de solveurs pour la résolution de tels problèmes. Il a étudié les aspects théoriques de la planification temporelle (classes traitables et relaxations, classes de langages temporels et cycles temporels), et il a développé un planificateur temporel qui a participé à la competition internationale de planification (IPC). Dans des travaux récents, il a montré que des modèles simples de planification sont PSPACE- complets, avec de nombreux problèmes de planification épistémique intéressants étant dans NP ou même dans P, même en présence de contraintes temporelles. Avec les autres orateurs de ce tutoriel, il a également introduit des modèles simples de planification cognitive qui sont une généralisation de la planification épistémique, et que nous proposons d’introduire dans ce tutoriel. Frédéric Maris anime le groupe de travail MAFTEC du “GDR IA” (groupe de recherche CNRS) sur les aspects multi-agents, flexibles, temporels, épistémiques et contingents de la planification avec Andreas Herzig depuis septembre 2016.
Jorge Luis Fernandez Davil (doctorant en dernière année de thèse) a participé au développement d’un cadre logique simple pour la planification cognitive qui peut être utilisé pour doter un agent artificiel de la capacité d’influencer les croyances et les intentions d’un agent humain. Notre approche repose sur SAT, compte tenu de la NP- complétude du problème de satisfiabilité pour le langage épistémique que nous considérons. Jorge a implémenté une extension de TouIST afin de prendre en compte ce langage et la traduction du problème de model-checking dans notre langage épistémique, en problème propositionnel SAT.
Lien présentation