Tutoriels



27 Juin - 1er juillet 2022, Saint-Étienne, France

Voir quelques photos de PFIA 2022 !

Programme

T1 : Éthique de l’Intelligence Artificielle (Lundi 27 Juin 2022 de 9h00 à 12h00)

Description

Ce tutoriel a pour objectif de faire un étatdes lieuxdes travaux sur l’éthique de l’IA. Il sera axé principalement sur les travaux réalisés au sein de la communauté des chercheurs en IA. Néanmoins, une introduction permettant de définir l’éthique et ses origines philosophiques sera nécessaire afin d’en saisir les principeset, de lever les éventuelles confusions avec les notions demorale et de déontologie. Il est possible de classer les travaux existant en trois groupes.

Un premier groupe concerne l’IA numérique; à savoir les algorithmes d’apprentissage automatique. L’accent sera mis sur l’interprétabilité qui est une composante essentielle de l’éthique pour ce type d’algorithmes. Afin de détecter les biais présents dans les données et de s’assurer que les modèles d’apprentissage fonctionnent correctement, plusieurs approches visant à expliquer ces modèles ont été proposées dans la littérature. Cette explication garantit la conformité au RGPD. Il y a plusieurs niveaux d’interprétabilité. On peut s’intéresser à l’explication des prédictions fournies par les algorithmes, à l’explication globale des modèles construits ou bien, à l’identification des variables pertinentes dans le modèle. Un autre aspect, qui contribue à l’interprétabilité des modèles, est l’injection des connaissances du domaine. Par ailleurs, différentes approches sont utilisées pour fournir une explication. D’un côté, il y a les méthodes dites «proxy» où des modèles interprétables, comme les fonctions linéaires, les arbres de décision et les règles logiques, sont utilisés pour imiter (et expliquer) les prédictions d’un modèle dit «boite noire» comme les réseaux de neurones. D’un autre, il y a les méthodes qui permettent d’identifier les paramètres (ou les variables) importants dans le modèle d’apprentissage comme les méthodes basées sur le gradient, utilisées à postériori (après la construction du modèle) et le mécanisme d’attention qui peut être intégré dans la construction des modèles. L’injection des connaissances du domaine dans un algorithme d’apprentissage automatique permet de guider ses prédictions et d’ouvrir la"boite noire"en rendantinterprétablesles concepts appris par le modèle. Le deuxième groupe de travaux en IA relatifs à l’éthique concerne les approches dites symboliques(ou cognitives). Au sein de ces dernières, il y a également différentes méthodes. Certaines tentent de concevoir des agents capables de respecter des règles/normes données a priori, tandis que d’autres proposent de valider à postériori qu’un agent respectera des règles éthiques qui lui sont extérieures. Certaines approches s’attachent àrendre éthiques des agents individuellement, tandis que d’autres argumentent pour une conception d’agents éthique en prenant en compte l’interaction avec leur environnement, les autres agents et l’utilisateur. Enfin, le troisième groupe concerne les approches dites numériques-symboliques, dans la mesure où elles combinent des approches numériques et des approches symboliques. C’est ce dernier type que nous illustrerons sur un cas pratique issu d’un projet en e-santé. Nous montrerons, sur des données patients, les avantages à utiliser les systèmes multi-agents pour traiter l’effet "Boite noires" des algorithmes d’apprentissage automatique.

Intervenants

Lien présentation

Lien de la vidéo de la démonstration

T2 : Fonctions de croyance et applications en apprentissage automatique (Lundi 27 Juin 2022 de 14h45 à 18h15)

Description

L’objectif de ce tutoriel est de présenter les concepts de base de la théorie des fonctions de croyance (également nommée théorie de Dempster-Shafer ou théorie de l'évidence) et de les mettre en œuvre dans le cadre de l'apprentissage automatique. Cette théorie, qui est une alternative à la théorie de probabilité et à la théorie des possibilités, permet de modéliser des informations élémentaires à l'aide de fonctions de croyance et de les combiner à l'aide de différents opérateurs selon des hypothèses sur les sources produisant ces informations. Elle est donc non seulement bien adaptés pour la fusion d'informations mais elle permet également, dans le cadre de l'apprentissage, de modéliser les incertitudes sur les données (par exemple pour l'apprentissage partiellement supervisé) et sur les prédictions (sortie de classifieurs évidentiels). Ainsi dans le cadre de cet atelier, outre une présentation et la mise en œuvre des principes de base de cette théorie, nous présenterons et utiliserons des algorithmes évidentiels classiques d'apprentissage automatique (E-KNN, ECM,…).

Intervenants

Lien présentation

T3 : Introduction à la modélisation et résolution de problèmes combinatoires sous contraintes (Mardi 28 Juin 2022 de 9h00 à 12h00)

Description

La programmation par contraintes (CP pour Constraint Programming) est une technologie permettant la modélisation et la résolution pratique de problèmes combinatoires sous contraintes. Deux formalismes sont particulièrement utilisés : SAT (Satisfiability Testing), où les variables sont booléennes et CSP (Constraint Satisfaction Problem) où les variables sont définies sur des domaines finis. La programmation par contraintes bénéficie d’un éventail riche de concepts de modélisation (contraintes globales) et d’algorithmes et heuristiques adaptés à une exploration efficace de l’espace de recherche. Des bibliothèques de modélisation développées en Python, ont été rendues disponibles récemment :PyCSP3 et PySAT. Pendant le tutoriel, elles permettront d’illustrer quelques facettes importantes de l’étape de modélisation (en utilisant notamment des Jupyter notebooks). La présentation de quelques algorithmes (de filtrage), d’heuristiques de recherche et de techniques d’apprentissage (de clauses) sera accompagnée de cas pratiques basés sur l’utilisation des solveurs ACE et Choco (CP) et Glucose (SAT).

Intervenants

Lien présentation

T4 : Deux catégories de systèmes de recommandation : le filtrage collaboratif et les bandits manchots (Mardi 28 Juin 2022 de 14h45 à 18h15)

Description

Les systèmes de recommandation sont des programmes qui choisissent les options à présenter à des utilisateurs parmi un grand nombre de possibilités. Ils permettent par exemple de recommander la prochaine vidéo à regarder, le prochain morceau à écouter, les photos à montrer... Suivant le contexte, i.e. suivant le mode d’interaction entre le système et les utilisateurs, et suivant les données à la disposition du système, ces programmes utilisent des approches complètement différentes :

Ce tutoriel présente rapidement l'ensemble de ces approches puis détaille les enjeux et les solutions de l'état de l'art en filtrage collaboratif et en bandits-manchots.

Intervenants

Lien présentation

T5 : Introduction à la théorie TRIZ pour la conception inventive: de la théorie à la fouille du texte (Mercredi 29 Juin 2022 de 9h00 à 12h00)

Description

La théorie de TRIZ a introduit des notions clés dans le domaine de l’innovation tout en restant quasi-inconnue du grand public. Le but était de créer un algorithme qui maximiserait les chances d’innover en résolvant un problème. Parmi ces notions on retrouve les paramètres TRIZ, les contradictions, les principes inventifs, la matrice d’Altshuler ou encore l’analyse substance-champ. Ces outils ont été développés pour faciliter la formulation et la résolution de problèmes.

Avec les possibilités qu’apportent l’IA notamment pour la fouille de texte, la théorie de TRIZ peut être encore étendue. Parmi les approches envisagées on retrouve les Transformers, GANs ou encore CRFs qui sont exploités pour extraire les notions clés qui permettront de comprendre des inventions avant de s’en inspirer pour innover.

Ce tutoriel abordera des éléments théoriques puis applicatifs.

Intervenants

T6 : Motifs Graduels : Concepts, Méthodes et Applications (Mercredi 29 Juin 2022 de 14h45 à 18h15)

Description

Face à aux grandes quantités de données disponibles actuellement, les tâches des analystes ne se formulent pas toujours dans le cadre de l’apprentissage supervisé, qui vise à prédire des étiquettes, pouvant être discrètes (classement) ou continues (régression). L’apprentissage non supervisé est aussi une préoccupation des analystes notamment pour des tâches de regroupement ("clustering") ou de recherche de liens. Dans ce dernier cas, le but visé est d’identifier des régularités dans les données, permettant aux analystes de mieux comprendre le contenu des données, de disposer de vues synthétiques et d’extraire des connaissances. Ces régularités, encore appelés motifs, constituent lecadre dans lequel se place ce tutoriel. Les motifs constituent en effet des connaissances qui permettent de résumer ou caractériser les données, fournissant aux analystes de riches informations sur les données dont ils disposent. Il existe de très nombreux types de motifs d’intérêt, suivant les types de données considérées ainsi que les applications visées. La diversité des motifs qui peuvent ainsi être extraits nécessite une bonne maîtrise de leur catégorisation, dont un bref panorama sera dressé au début du tutoriel.

L’objectif du tutoriel est ensuite de s’intéresser aux motifs dit graduels, qui, de façon schématique, extraient à partir de données quantitatives, des connaissances qui s’expriment linguistiquement sous la forme "plus X1 est A, plus X2 est B" dans le cas le plus basique. Le tutoriel vise à fournir aux participants une vue d’ensemble des travaux menés au cours de la dernière décennie, couvrant plusieurs aspects allant de la discussion des diverses sémantiques qui peuvent leur être associées, la présentation des algorithmes qui ont été proposés pour les extraire de façon efficace pour chaque sémantique, ainsi que la description de diverses applications qui les mettent en œuvre.

Intervenants

Lien présentation

T7 : Conformal learning – prédiction avec des garanties de précision (Jeudi 30 Juin 2022 de 9h00 à 12h00)

Description

Dans de nombreuses applications pratiques, telles que la médecine, la banque, l'assurance, etc., il est important d'avoir des garanties d'exactitude pour les prédictions générées. Cependant, peut-on faire quelque chose si ni plus de données ni de modèles plus compliqués permettent d'atteindre la précision requise de 95 % ? Ce tutoriel vous présentera une réponse positive.

L'apprentissage conforme (Conformal learning) est une approche qui peut être utilisée en plus de n'importe quel algorithme prédictif pour les tâches de classification et de régression. Il permet d'atteindre le niveau de précision prédéfini par l'utilisateur au sens statistique. De plus, le choix de la fonction de non-conformité (nonconformity function), le seul méta-paramètre de l’apprentissage conforme, aboutit à une prédicteur conforme avec des propriétés différentes. Cependant, il y a un prix à payer. Au lieu de point prediction (un label de classe ou un nombre), les prédicteurs conformes aboutissent à des region predictions (un ensemble de labels ou un intervalle numérique) Dans ce tutoriel, vous découvrirez les principes théoriques de la prédiction conforme, expérimenterez avec différents algorithmes et fonctions de non-conformité, et explorerez les extensions et les applications de l'apprentissage conforme.

Intervenants

Lien présentation

T8 : Extraction, analyse et reproductibilité de campagnes expérimentales avec l’outil Metrics (Jeudi 30 Juin 2022 de 14h45 à 18h15)

Description

Le développement de logiciels tels que les solveurs de résolution ou d’optimisation sous contraintes (SAT,PB,CP,LP,MILP,etc.) ou les solveurs en argumentation s’accompagne nécessairement d’une phase d’expérimentation permettant d’évaluer les performances des fonctionnalités implantées. Pour chacunedes campagnes expérimentales considérées dans ces précédents domaines, il fautalors collecter et analyser des statistiques relatives à leur exécution et qui, le plus souvent, possèdent des méthodologies communes. Néanmoins, il existe probablement autant de pratiques et de scripts permettant d’extraire ces statistiques et de tracer les figures associées que de chercheurs dans ces domaines. Ce tutoriel tente de fournir une simplification des méthodes d’extraction et d’analyse de résultats expérimentaux à travers l’usage d’une bibliothèque Python les unifiant : Metrics. Il décrit ainsi la chaîne complète d’outils conçue danscette optique et met l’accent sur le partage et la reproductibilité des résultats obtenus. Plusieurs applications sont proposées et illustrent l’usage de Metrics en rejouant l’analyse de campagnes et compétitions des différents domaines cités. La présentation suit le format des notebooks Jupyter et pourra, de ce fait, être reproduite directement par les participants.

Intervenants

T9 : Agents : Comportements & protocoles de communications (Vendredi 01 Juillet 2022 de 9h00 à 12h00)

Description

Le but de ce tutoriel est d’étudier les différents modes de communication FIPA entre agents. Il s’agit ici d’agents à gros grain, possédant des rôles, reliés à des services, utilisant un mécanisme de boite aux lettres. Différents types de communication sont possibles : directs et nommés, par broacast, via des protocoles pré-définis. Ces communications inter-agent peuvent être utilisées pour simuler les communications complexes entre web-services, applications réparties, ... Dans ce tutoriel, progressifs, vous apprendre à créer des agents Jade, individuels, puis communiquants sous diverses formes pour les appliquer à la gestion/simulation d'échanges de messages entre des voyageurs souhaitant réserver un voyage combiné ou non et des services d’informations sur des voyages. Ces agents seront développés en Java, avec la plateforme JADE (https://emmanueladam.github.io/JadeUPHF/).

Intervenants

T10 : Introduction à la planification cognitive (Vendredi 01 Juillet 2022 de 14h45 à 18h15)

Description

Dans ce tutoriel, nous présenterons une approche logique de la planification cognitive. Le but de celle-ci est de changer l’état cognitif d’un agent, y compris ses attitudes épistémiques (par exemple, ses connaissances et ses croyances), ses motivations (par exemple, sesintentions) et ses émotions. La première partie du tutoriel sera consacrée à présenter le cadre théorique. Nous introduirons d’abord les concepts de base de la logique épistémique et de la planification. Ensuite, nous présenterons le modèle logique de la planification cognitive en nous focalisant sur ses propriétés formelles et sa complexité. Dans la seconde partie du tutoriel, nous présenterons deux applications de l’approche : i) un agent conversationnel persuasif dans le cadre du conseil sportif et de l’entretien motivationnel ; ii) un agent artificiel pour un jeu collaboratif. Le modèle de planification cognitive ainsi que les applications présentées dans ce tutorielont été développées dans le cadre du projet ANR PRCE CoPains (« Cognitive Planning inPersuasive Multimodal Communication »).

Intervenants

Lien présentation