Présentation
La région Auvergne-Rhône Alpes compte des acteurs de premier plan dans le domaine de l’Intelligence Artificielle, avec de réelles compétences tant dans son cœur scientifique et technique que dans son intégration à d’autres technologies ou dans ses applications dans différents domaines.
Concerné par la question des transformations numériques, Mines Saint-Étienne et l’IMT placent l’IA comme l’une de ses thématiques phare de recherche.
De plus, notre laboratoire de recherche, LIMOS UMR CNRS 6158, mène ses travaux sur de nombreuses problématiques portées par PFIA et le bassin stéphanois compte des entreprises et start-up innovantes dans le domaine de l’IA.
Des chercheurs de l'Université Jean-Monnet de Saint-Étienne sont membres du Laboratoire Hubert Curien UMR 5516, et développent des travaux en Intelligence Artificielle dans l'équipe data Intelligence.
C'est pourquoi, cette édition de la PFIA sera l’occasion de présenter des recherches et innovations originales issues de notre tissu industriel et académique local et régional.
Programme
Lundi 27 juin
14h45 - 16h15: Présentation de l'équipe data intelligence du laboratoire Hubert Curien
16h45 - 18h15: Visite des plateformes
Visite des plateformes IT'm Factory (détail) et Territoire (détail) : nombre de places limité à 30 personnes.
Inscriptions barneoud@emse.fr
Rendez-vous dans le hall de l'Institut Henri Fayol.
Mardi 28 juin
14h45 - 16h15: IA et moyens de calcul : Plateforme IA @ IMT / Teralab et Calcul Québec
- Présentation de calcul Québec (Suzanne Talon, Lucas Nogueira)
- Présentation de l'action Structurante Thématique de la Phare Data&IA (Driss Sadoun) : Présentation du travail de recensement de ressources logicielles développées au sein de l’IMT.
- Présentation de TeraLab, la plateforme d'intelligence artificielle et de big data au sein de l'IMT (Benoît Benoit Talbutiaux ou Anne-Sophie Taillandier)
- Présentation du catalogue et de l'environnement d'exécution de ressources logicielles de l'IMT (Benoit Talbutiaux)
16h45 - 18h15: Visite des plateformes
Visite de la plateforme du Centre Ingénierie et Santé de Mines de Saint-Étienne. (détail)
Départ en bus depuis le cours Fauriel
10h30 - 12h15
- 10h30 - 10h50: Introduction Thématique Phare Data IA / Prog. Doctoral IA@IMT. Stéphane Lecoeuche (IMT Nord Europe)
-
10h50 - 11h10: Modélisation et intégration des données multi-vues : détection de données aberrantes et extraction de règles. Joel Mba Kouhoue (IMT Nord Europe)
Encadrants : Arnaud Doniec, Jerry Lonlac, Stéphane Lecoeuche (IMT Nord Europe), Alexis Lesage (Intent),
Financement : ANR AI@IMT, Entreprise Intent
Résumé : Cette thèse se déroule en partenariat entre l’IMT Nord Europe et la société Intent qui développe une plateforme d’échange de données entre les principaux acteurs du secteur immobilier. De ce fait, la plateforme collecte et centralise toutes les données de leur écosystème et facilite la gestion des services apportés aux occupants, aux exploitants et aux gestionnaires. La plupart du temps, ces différents acteurs partagent des visions voire des informations différentes du bâtiment. Ainsi, Intent est confronté à la mise en place de moteurs d’appariement. Cette tâche est actuellement réalisée grâce à une expertise humaine. L’objectif de cette thèse est de contribuer au développement de nouveaux outils de fouille de données capables de composer avec plusieurs vues, tout en assurant de la fiabilité des données et des appariements d’information.
Plusieurs expérimentations sont actuellement en cours les problématiques d’alignement des codes de prestations. Un code de prestation c’est une donnée alphanumérique ou textuelle caractérisant un type de prestation à réaliser par un presta- taire de maintenance. Chaque prestataire de service de la plateforme Intent dispose d’un ensemble de codes de prestations, encore appelée Bande de codes, qui représente l’ensemble des services offerts par ce dernier. L’objectif de l’appariement des codes de prestations est d’établir les correspondances entre les codes de prestations clients et codes de prestations prestataires. A partir des techniques de fouille de motifs séquentiels, graduels et de représentation sémantique des connaissances, nous envisageons mettre en place une base de connaissance sur les codes de prestations des différents fournisseurs de services afin de faciliter le processus d’appariement des codes de prestations. A travers quelques expériences menés sur le périmètre d’un client et son prestataire ascensoriste, les premiers résultats obtenus nous ont permis de déduire des règles d’associations pertinentes. De manière incrémentale, nous envisageons généraliser et valider les règles apprises dans le contexte d’autres clients et prestataires ascenssoristes d’une part, et d’autre part procéder de fa- con similaire sur les autres métiers (chauffagistes, multiservices, . . . etc). Etudier également l’apport de la fouille des données de consommations énergétiques qui peuvent également être traitées comme des données séquentielles (au moyen de la représentation symbolique des séries temporelles numériques).
-
11h10 - 11h35: Étude des approches semi-supervisées pour des systèmes adaptatifs : application à l’habitat intelligent et à son adaptation au comportement. Clément Bout (IMT Nord Europe)
Encadrants : Abir Béatrice Karami Lozenguez, Université Catholique de Lille, FGES. Anthony Fleury, IMT Nord Europe
Financement : ANR AI@IMT, Univ Catho Lille, IMT Nord Europe
Résumé : Les travaux de cette thèse ont pour but de mieux interpréter les données d’un habitat intelligent en considérant que celui-ci peut comporter plusieurs occupants à un moment donné. Nous considérons des habitats avec un ensemble de capteurs répartis dans toutes les pièces et pour lesquels nous avons des informations sur le type de capteur (et donc le type de données générées). Au cours des deux premières années de thèse, le travail a porté, une fois l’état de l’art et la prise en main du sujet passée, tout d’abord sur la mise en place d’une méthodologie pour représenter l’habitat considéré de manière simple et efficace. À partir des positions des murs, des ouvertures et des capteurs (position et type), ainsi que des entrées/sorties de l’habitat, nous pouvons en déduire de manière automatique la proximité des capteurs et la possibilité que ceux-ci soient activables ensemble à un moment donné. La seconde étape a ensuite été de remettre en forme les données de l’habitat pour qu’elles soient continues. En effet, les capteurs de présence portent mal leur nom et détectent des mouvements. Lorsqu’une personne reste immobile devant le capteur, son état repasse à 0. Il faut alors rendre « continue » l’information pour avoir l’activation de la présence de son début à sa fin. Une fois cette étape effectuée, la dernière étape, sur laquelle le travail porte en ce moment, est de modifier/améliorer et utiliser des algorithmes de suivi de cibles multiples pour maintenir une distribution de probabilités sur des hypothèses d'appartenance d'un événement capteur (personne ou groupe). Ainsi, les processus à gérer sont la continuation de l’existence d’un groupe, l’apparition d’un groupe (naissance) à proximité des points d’intérêt (groupe existant ou entrée) et la disparition d’un groupe (fusion ou sortie). Ceci se fait avec des Poisson Multi-Bernouilli Mixtures filters. L’évaluation de la performance de ces algorithmes est en cours (en commençant par le cas simple d’une personne puis l’ajout de personnes). Les données utilisées font partie de la base CASAS (Washington State University) qui comporte différentes implémentations d’appartements et des données avec un seul habitant ou plusieurs habitants faisant des activités indexées à un puis à plusieurs.
Bout, C., Karami, A. B., & Fleury, A. (2021, July). L’habitat intelligent et sa capacité à s’adapter : vers une approche centrée multi-résidents. In Rencontres des Jeunes Chercheurs en Intelligence Artificielle (RJCIA'21) Plate-Forme Intelligence Artificielle (PFIA'21).
-
11h35 - 11h55: Valuing data in the emergence of data exchange markets. Kortisa Griselda (IMT Business School)
Encadrants : Marie Carpenter, Charlotte Krychowski (Institut Mines-Telecom Business School), Véronique Blum (Université de Grenoble)
Financement : ANR AI@IMT, Entreprise DAWEX
Résumé : The increase in the volume of data has led to the emergence of data markets. According to OECD (2019), an increased data sharing would significantly positively impact the economy. However due to its specific characteristics, valuing data is difficult and this affects the data sharing market which is expected to play a crucial role in data economy but is seldom commercially viable (Abbas, 2021).
Through a thesis structured in three articles, I will attempt to gain a fine-grained understanding of the factors affecting the valorisation of data. The first article will focus on comparing three data marketplaces. The objective is to understand what factors (exchanged data characteristics; characteristics of data providers and data buyers; platform characteristics) affect the market dynamics of these three marketplaces. The second article, through a regression analysis, will determine which variables have an impact on the probability of a dataset to be transacted, and on the average time between the date of publication of a dataset on the catalogue and the date of the transaction. Lastly, the third article will perform a network analysis of transactions, with a view to describing the links between data providers and data buyers, both from a static and from a dynamic perspective.
-
11h55 - 12h15: Agentification sensible au contexte, des comportements piétons à partir de méthodes « deep » novatrices appliquées à des données vidéo et 3D. Zaier Mayssa (IMT Nord Europe)
Encadrants : Hassen DRIRA et Jacques BOONAERT, IMT Nord Europe
Financement : ANR AI@IMT, Région Hauts-de-France
Résumé : Dans cette thèse, nous proposons de réaliser une « agentification » sensible au contexte, des comportements piétons, en nous appuyant sur des données essentiellement vidéo et 3D notamment sur des « zones de conflit » à savoir des zones de partage des voies de circulation entre les piétons et les autres usagers (passages protégés, par exemple). Une des difficultés majeures consiste à intégrer d’une manière générique l’effet des éléments de contexte (signalisation, trajectoire des autres usagers, durée d’attente sur un passage, etc.), à partir des seules données d’apprentissage et sans recours à des connaissances expertes, ce qui constitue une première originalité. La seconde tient dans les méthodes utilisées issues de l’apprentissage profond.
14h45 - 16h15
-
14h45 - 15h05: Etude des interactions entre systèmes d'intelligence artificielle en cybersécurité par la théorie des jeux. El Houssni Khalil (IMT Atlantique)
Encadrants : Yann Busnel, Patrick Maillé (IMT Atlantique) et Stéphane Paquelet (IRT bcom)
Financement : ANR AI@IMT, IRT bcom
Résumé : Mon projet de thèse porte sur l’application de l’apprentissage automatique et la théorie des jeux pour la cybersécurité. La théorie des jeux permet une modélisation mathématique des interactions entre les agents d’un système numérique soumis à de potentielles attaque cyber et également d’effectuer des prédictions des issues possibles de ces interactions grâce à des notions mathématiques comme l’équilibre de Nash ou l’optimum de Pareto. L’application de l’apprentissage automatique vise à utiliser les données historiques pour estimer des modèles comportementaux et proposer des prédictions , classifications ou identification des motifs d’attaque.
Après les grandes avancées dans l’intelligence artificielle et la conception de nouvelles méthodes d’apprentissage automatique comme les réseaux de neurones, leur utilisation est généralisée dans plusieurs cadres d’applications comme la détection des spams ou l’analyse des fichiers malveillants ou encore la détection d’intrusion dans un réseau. Par exemple dans la détection de spam, l’apprentissage automatique conflictuel permet l’analyse des e-mails et retrouver ceux qui représentent des risques de spam en tenant compte du fait que l’attaquant modifie les e-mails de spam pour les faire apparaitre comme légitime.
Beaucoup de problématiques en cybersécurité sont en réalité des problèmes de prise de décision dans un environnement multi-agent parfois complexe et incertain. La théorie des jeux propose un cadre mathématique efficace pour la résolution de telles problématiques. Pendant ce début de thèse, je me suis intéressé aux attaques DDOS (Déni de Service Distribué ) et les différentes applications de la théorie des jeux pour concevoir des stratégies de défense vis-à-vis de ce type d’attaque. La plupart des articles sur ce sujet optent pour une modélisation avec un jeu statique dans lequel l’attaquant choisit le nombre de nœuds contrôlés et le débit de transmission pour causer une consommation anormalement élevée de la bande passante du réseau et donc un déni de service pour les débits légitimes alors que le défenseur joue sur la configuration du pare-feu .
Comme premier cas concret d’usage, j’ai exploré l’attaque Global Iceberg, un type d’attaque DDOS difficile à détecter localement et qui nécessite l’intervention d’un coordinateur agrégeant les informations locales. En travaillant sur un article de mon encadrant Yann concernant le G.I, on a proposé quelques idées pour optimiser la configuration proposée à l’aide de la théorie des jeux. Les auteurs ont utilisé des mémoires tampon de taille paramétrable afin de minimiser le coût de communication. D’après les résultats expérimentaux, l’utilisation de cette technique diminue bien le coût de communication entre nœuds et coordinateur mais augmente le temps de détection des G.I. Là encore, on peut envisager une modélisation par un jeu à somme nulle afin de trouver la taille optimale des tampons avec une fonction d’utilité pondérée entre coût de communication et temps de détection mais la difficulté dans ce cas réside dans l’explicitation de ces deux composantes.
-
15h05 - 15h25: Extraction de scénarios probables par corrélation d'alertes. Antoine Rebstock (IMT Atlantique)
Encadrants : Yann Busnel, Romaric Ludinard (IMT Atlantique) et Stéphane Paquelet (IRT bcom)
Financement : ANR AI@IMT, IRT bcom
Résumé : My work is part of the research field of multi-step attack detection. Multi-step attacks are attacks that are broken down into several steps, called the kill chain: initial compromise, establish foothold, escalate privileges, internal reconnaissance, move laterally, maintain presence, complete mission. In essence, they are difficult to detect. Indeed, it is necessary to establish links between the actions that make it up. Moreover, some of these actions are considered benign, even legitimate, and are therefore not detected by the mechanisms provided for this purpose (Intrusion Detection Systems). These attacks can also be based on unknown vulnerabilities (0-days), present on the victim's information system. Another factor that complicates their detection is that they can be orchestrated over long periods of time: several months can separate the steps that compose it. To detect multi-step attacks, several families of detection methods are cited in the literature, each with its advantages and disadvantages. However, there is no consensus in the community. This is mainly due to the trade-off between detection accuracy, detection of unknown attacks and prediction of the next steps of the attack. The transposition of an existing model from the medical domain intended for the detection and prediction of unknown side effects to the domain of multi-step attack detection seems to be an interesting approach. This model is based on the interactions between different drug proteins to determine if they are the cause of side effects. In the area of multi-step attack detection, the events alone would probably not allow us to simply determine that it is a multi-step attack. One reason for this is that there is a partial set of events identified by anomaly detection systems. My thesis work is therefore oriented towards enriching this model in order to adapt it to the field of multi-step attack detection, for example coupled with other detection and correlation mechanisms.
-
15h25 - 15h45: Commande robuste de systèmes non-linéaires basée sur un modèle LPV hybride physique-neuronal. Alexandre Hache (IMT Atlantique)
Encadrants : Philippe Chevrel, Mohamed Yagoubi, Maxime Thieffry, IMT Atlantique
Financement : ANR AI@IMT,
Résumé : Les réseaux de neurones artificiels sont des outils puissants pour la conception de modèles basés sur des données. L’idée de la thèse est de tirer partie de la puissance des modèles neuronaux et des algorithmes d’apprentissage afin d’établir des modèles pour l’identification de systèmes non-linéaires régis par des équations différentielles. L’identification de modèles d’état par réseaux de neurones a déjà été largement explorée : x ̇=f(x,u) où f peut-être représentée par un réseau de neurones. Cependant peu nombreux sont ceux réellement adaptés à la commande de systèmes non-linéaires. De plus, il est intéressant d’utiliser des connaissances a priori liées à la physique et de les intégrer à l’apprentissage. Les systèmes physiques à identifier étant régis par des équations différentielles il est notamment pertinent de procéder à l’apprentissage du champ de vecteur (continu). Une stratégie de commande non-linéaire largement étudiée dans la littérature est celle de la linéarisation par bouclage. Cette technique de commande, permet pour une certaine classe de systèmes, de trouver une loi de commande : u=α(x)+β(x)v et un changement de variables z=Φ(x) tel que le nouveau système soit équivalent à un système linéaire de la forme : z ̇=Az+Bv
Cette procédure de commande est avantageuse car elle linéarise le système, en revanche ses conditions d’utilisation sont parfois restrictives et nécessite une connaissance du système identifié. L’objectif étant de relaxer ses conditions en identifiant un modèle linéarisable directement en intégrant la synthèse de la loi de commande linéarisante dans la structure du réseau de neurones.
-
15h45 - 16h10: Apprentissage de cartes d’invariants dans le cadre d’objets combinatoires. Jovial Cheukam Ngouonou (IMT Atlantique)
Encadrants : Nicolas Beldiceanu, IMT Atlantique, LS2N (TASC), Claude-Guy Quimper, Université Laval, Québec, Rémi Douence, LS2N, Inria (Gallinette).
Financement : ANR AI@IMT,
Résumé : Pour automatiser la découverte de conjectures sur les objets combinatoires, nous introduisons le concept de carte de bornes précises sur les caractéristiques des objets combinatoires, qui fournit un ensemble de bornes précises interdépendantes pour ces objets combinatoires. Nous décrivons ensuite un Bound Seeker, un système basé sur la programmation par contraintes, qui acquiert de manière compositionnelle ces cartes de conjectures. Le système a été testé pour rechercher des conjectures sur des bornes des caractéristiques de graphes orientés : il construit 16 cartes contenant 431 conjectures sur des bornes inférieures et supérieures précises impliquant huit caractéristiques de graphes orientés.
16h45-18h15
-
16h45-17h05: Deep Geodesic Learning for SpatioTemporal Modeling. Zakaria Jarraya (IMT Atlantique)
Encadrants : Lucas Drumetz, François Rousseau (IMT Atlantique / LATIM), Douraied Ben Salem ( CHU Brest/ LATIM )
Financement : ANR AI@IMT, Philips
Résumé : Malgré le succès fulgurant de l’apprentissage profond dans des tâches complexes (voitures autonomes, reconnaissance de formes…) il présente toujours des phénomènes éroutants ( stabilité par rapport à la perturbation de l’entrée, stabilité par rapport à la taille des données, …). la nécessité de résoudre ces problèmes devient urgente si nous envisageons d'utiliser l'apprentissage profond dans des domaines sensibles et critiques où une fausse décision peut avoir des conséquences désastreuses.
Des travaux montrent que les réseaux de neurones ne sont pas stables i.e une petite perturbation de l’entrée imperceptible à l’œil nue conduit à une fausse prédiction.
Depuis la découverte de ce phénomène, plusieurs méthodes ont été proposées pour le corriger. Certains travaux ont envisagé la théorie des systèmes dynamiques pour concevoir des architectures avec des garanties de stabilité (Parseval network, ODE, TISODE, SODEF, SONET...). Ces structures pourraient être entraînées naturellement ou avec un entraînement adverse et parviennent à montrer une bien meilleure robustesse que les réseaux traditionnels. Cependant, pour garantir la stabilité, ils ne considèrent qu'une classe restrictive de tous les systèmes dynamiques stables possibles, cela peut trop restreindre le pouvoir prédictif du modèle et aboutir à un réseau qui est certes stable mais qui n'a pas de bonnes capacités de classification. De plus, ces modèles ne spécifient pas le nombre d'équilibres qu'elles ont, ce qui peut conduire à ce que différentes classes se retrouvent regroupées ensemble.
Notre travail s'inscrit dans la lignée des travaux précédemment cités. toutefois, le nôtre est plus général car nous construisons notre système dynamique stable sans lui imposer de forme particulière. Cela rend notre modèle plus expressif et permet d'obtenir de meilleures performances de classification.17h05-17h25: Applications de l’apprentissage profond pour l’analyse de la respiration pour l’aide au diagnostic.
-
17h05-17h25: Applications de l’apprentissage profond pour l’analyse de la respiration pour l’aide au diagnostic. Moummad Ilyass (IMT Atlantique)
Encadrants : Michel Jézéquel, Nicolas Farrugia, IMT Atlantique, Département MEE, Brest ; Olivier Menut, encadrant, OSO-AI, Brest
Financement : ANR AI@IMT, OSO-AI
Résumé : L’objectif de cette thèse est l'aide au diagnostic de pathologies respiratoires à partir d'enregistrements acoustiques. Nous nous intéressons à des mesures provenant d'un centre de sommeil par le biais d'une collaboration avec l'entreprise OSO-AI. Les enregistrements consistent en une nuit entière de sommeil, à la suite de laquelle différents types d'apnées sont annotés, pour un total de 146 patients. Nos premières expériences se basent sur approche de détection d'apnée sur des segments de quelques dizaines de secondes. Nous utilisons le transfert d'apprentissage à partir d'un réseau profond entrainé sur le jeu de données "Audioset", comportant notamment des annotations de respiration. Nous effectuons la validation du modèle en testant sur une trentaine de patients non vus pendant la phase d'entrainement. Nous avons mis en évidence des gains importants obtenus par le transfert d'apprentissage, en termes de temps d'entrainement et d'aire sous la courbe ROC. Une investigation plus approfondie a montré que les performances sur les sujets de tests sont très variables, notamment à cause de la variabilité du nombre d'événements d'apnée. L'écoute des enregistrements a permis de confirmer cette variabilité, les moments précis d'annotations étant assez relatifs, car provenant d’une décision médicale à partir de vidéo et de mesures physiologiques simultanées. Nous avons pu lutter contre ce problème en sélectionnant aléatoirement des parties différentes des segments à chaque itération de l'apprentissage, incluant les périodes pré et post apnées. Enfin, nous présentons des approches de prétraitement des vecteurs de caractéristiques issus du transfert d'apprentissage, permettant de mieux tenir compte de la spécificité des sujets. Nous envisageons par la suite d'approfondir l'augmentation de données, en considérant une combinaison d'apprentissage contrastif (auto-supervisé) et supervisé afin d'apprendre des caractéristiques robustes à l'imprécision et la rareté des annotations.
- 17h25-18h15: Discussion, échanges, organisation du programme doctoral
Jeudi 30 juin: Présentation des recherches du LIMOS
16h45-18h15
-
L'expérience des utilisateurs améliorée par des intelligences artificielles. Xavier Goblet (Lojelis - Jeolis Solutions, Clermont-Ferrand)
Au sein de Jeolis Solutions, l'IA est vu comme un outil d'amélioration de l'expérience des utilisateurs d'applications ou services numériques. Nous visons évidemment les utilisateurs finaux comme un patient dans une application de santé, un conducteur d'un véhicule à hydrogène, mais aussi les autres acteurs de la chaine tel qu'un gestionnaire de stations de recharge ou un praticien métier devant configurer l'application à travers son expertise. Dans cette contribution, nous montrons aussi l'utilisation de différentes approches d'Intelligence Artificielle dans nos projets de recherche et d'innovation: de l'IA symbolique à l'apprentissage par renforcement en passant par des algorithmes de graphes et des heuristiques d'optimisation combinatoire.
-
Scalable and Accurate Subsequence Transform for Time Series Classification. Michael Mdouopda (LIMOS)
The Scalable and Accurate Subsequence Transform (SAST) is a time series classification method that gets inspiration from the core object recognition capability of the brain to make classification by shapelet significantly faster while slightly increasing the classification accuracy.
-
Web sémantique et programmation logique - Travaux en cours. Christophe Rey (LIMOS)
Je présente mes travaux en cours à l'interface entre le web sémantique et la programmation logique, dans un contexte de recherche en partenariat avec des entreprises. Alors que le domaine du web sémantique apporte en théorie toutes les briques nécessaires pour faire du raisonnement à partir de connaissances modélisées dans des ontologies, avec un corpus très large de résultats théoriques difficiles et importants, l'utilisation pratique de raisonnement dans les applications industrielles pose parfois problème. A partir de projets passés ou en cours, j'exposerai quelques difficultés rencontrées et les solutions sur lesquelles je travaille actuellement, basées pour certaines sur l'articulation entre représentation selon les standards du web sémantique et raisonnement en programmation logique.
Vendredi 01 juillet
10h30 - 12h00: Présentations d'entreprises partenaires du LIMOS et du LaHC
-
Early diagnosis of Lyme disease by recognizing Erythema Migrans skin lesion from images utilizing deep learning techniques. Imran Hossain (LIMOS)
Lyme disease is one of the most common infectious vector-borne diseases in the world. We extensively studied the effectiveness of convolutional neural networks for identifying Lyme disease from images. Our research contribution includes dealing with the lack of data, multimodal learning incorporating expert opinion elicitation, and automation of skin lesion hair mask generation.
-
L'usine autonome : utilisation de l'IA pour la prise de décision dans un processus industriel. Julien Fayolle (BrainCube)
Les opérateurs d'un processus industriel font de manière fréquente des réglages du processus pour s'adapter aux évolutions du contexte (typiquement la qualité de la matière première) et atteindre les objectifs de production initialement fixés. La problématique de l'usine autonome consiste en l'obtention automatique de ces réglages. Après une présentation de la problématique de l'usine autonome et un état de l'art des différentes méthodes disponibles, nous présenterons les algorithmes développés par braincube et les résultats qu'elle obtient sur un dataset de test.
-
I.A. et fraude à l’assurance santé : exemple de l’optique. Damien Saboul ; Olivier Raynaud (By-ys, health solutions)
Le groupe Be-ys, par l’intermédiaire de sa cellule Be-Ys Research, développe depuis plusieurs années son propre modèle de détection de la fraude aux complémentaires santés. Distinction entre un abus ou une fraude, respects des contraintes industrielles de temps réel, absence d’étiquetage des données,… nous exposerons, par l’intermédiaire d’un exemple concret, comment l’I.A. peut venir s’intégrer dans le processus métier pour tenter d’améliorer la détection des fraudes et découvrir de nouveaux patterns jusqu’ici inconnus.
-
QAnswer, une plate-forme pour les Questions-Réponses d'entreprises. Pierre Maret (co-fondateur de The QA Company, plate-forme de Q&A)
The QA Company est une entreprise _deeptech_ née en 2018, jeune pousse de l'Université Jean Monnet et du CNRS. Sa plate-forme QAnswer permet de concevoir des systèmes de Questions-Réponses (Q&A) qui interrogent les corpus de données et de documents. The QA Company travaille avec des techniques avancées de NLP, Graphes de Connaissances et Machine Learning, ainsi qu'avec l'environnement Wikibase. L'entreprise est en croissance forte et poursuit des travaux de recherches. Elle a créé avec la Commission Européenne _The EU Knowledge Graph_.
13h30 - 14h30: Thématique Data - IA @ MINES Saint-Étienne 1: on applying AI techniques to novel domains
- 13h30: Using deep learning to retrieve 3D geometrical characteristics of a particle field from 2D projected images: Application to multiphase flows. Kassem Dia
- 13h50: Changement d'échelle stochastique -- Application à l'infusion de résine dans les matériaux composites. Sylvain Drapier
- 14h10: Urgent Patient Hospitalisation Pathway Prediction using Healthcare-Administrative Data and Medical Records. Laura Uhl
14h45 - 16h15: Thématique Data - IA @ MINES Saint-Étienne 2: on developing novel AI techniques
- 14h45: Virtual Agents Isolation Forms for anomaly and outlier detection. Michel Kamel
- 15h05: Governing sociotechnical systems: A sanction-based approach. Luis Gustavo Nardin
- 15h25: Data mining for optimized failure analysis flow. Kenneth Ezukwoke
- 15h45: Building Industrial Control Agents in Hypermedia Environments. Victor Charpenay
- 16h05: Aide à la décision en usinage basée sur des règles métier et apprentissages non supervisés. Zighiang Wang
16h45 - 18h15: Visite des plateformes
Visite des plateformes IT'm Factory (détail) et Territoire (détail): nombre de places limité à 30 personnes.
Inscriptions barneoud@emse.fr
Rendez-vous dans le hall de l'Institut Henri Fayol.
Découverte de la plateforme Territoire
Objectif : Observer et comprendre les territoires actuels pour décider et orienter vers les territoires du futur
Positionnement thématique : Transitions numérique, écologique et industrielle considérant l’efficience, la résilience et la durabilité des territoires du futur
Support opérationnel pour les enseignant-chercheurs : Outils de co-construction de solutions, embarquant des travaux de l’institut H. Fayol, pour une gestion efficiente, résiliente et durable des territoires.
Enjeux:
- Concevoir une plateforme Decision as a Service (DaaS)
- Disposer d’un observatoire de la donnée permettant de collecter, structurer, donner du sens et visualiser des données spatialisées
- Proposer une architecture logicielle, orientée service, mettant en œuvre les expertises de l’institut H. Fayol pour la gouvernance des territoires
- Développer des solutions transversales et intégrées pour un territoire
Cibles : Bâtiment, Environnement, Mobilité, Logistique
Visites de l'ITm Factory
Objectif : La plateforme IT'm Factory est un espace représentant une usine numérique physique et virtuelle présentant les marqueurs forts de l'industrie du futur et permettant de démontrer que l’intégration des nouvelles technologies est un levier de compétitivité pour les entreprises. Son rôle, sensibiliser, former et accompagner les TPE, PME et ETI dans leur transformation digitale.
Contenu de la visite : La plateforme IT’mFactory intègre des outils, techniques et méthodes à la pointe des dernières technologies: réalité virtuelle et augmentée, scanner et impression 3D, Robot collaboratif (cobot), digital twin (jumeau numérique), véhicule autonome (AGV)... La visite s'appuiera sur ces technologies pour présenter et démontrer la place de l'Intelligence Artificielle et ses applications dans le milieu industriel.
Visite de la Plateforme du Centre Ingénierie et Santé de Mines de Saint-Étienne
Hôpital Virtuel
Le démonstrateur HoVi permet d’expérimenter et d’optimiser les activités et parcours de soins des organisations en santé. Jumeau digital de l’hôpital, il offre une mise à disposition d’applications innovantes en lien avec la réalité virtuelle et la réalité augmentée. Il s’appuie sur la modélisation, la simulation numérique (analyse et prédiction sur données de santé, monitoring…), et sur les outils logiciels pour l’aide à la décision en temps réel et la planification automatisée.
MedTechLab® living lab en Santé - Autonomie
Cet espace d’observation des usages et des pratiques innovantes est dédié à l’expérimentation terrain et aux tests grandeur nature de produits ou services intégrant de nouvelles technologies en santé. Co-dirigé par MINES Saint-Étienne et AESIO Santé, il propose une offre unique en France alliant la méthodologie living lab, l'ingénierie et la modélisation mathématique pour accompagner les industriels et les acteurs socio-économiques dans le développement de leurs projets R&D.