A la croisée des révolutions numériques

Generic selectors
Exact matches only
Search in title
Search in content
Generic selectors
Exact matches only
Search in title
Search in content
Home 5 Évènement 5 Séminaire : IA HYBRIDE

Séminaire : IA HYBRIDE : Quelles voies et quels potentiels après ChatGPT ?

On pourrait être tenté d’opposer l’IA symbolique et l’IA connexionniste alors qu’elles sont en réalité très complémentaires.

L’IA symbolique a eu son heure de gloire dès les années 80, puis 35 ans plus tard, l’IA connexionniste, grâce à l’apparition du Big Data, de la puissance de calcul et la miniaturisation des composants est devenue une technologie incontournable du domaine de l’IA grâce à des performances qui sont devenues acceptables à partir de 2015.

De nos jours et après la mécanique, l’électricité, le numérique, l’IA est à la base d’une nouvelle révolution majeure.

Imaginons un monde demain où l’IA se combine harmonieusement avec les capacités humaines, où les machines et les individus collaborent pour atteindre des niveaux de performance inégalés.

Nous n’en avons jamais été aussi près, fusionner ces 2 technologies, appelé l’hybridation des IA, pourrait bien être la touche finale pour aboutir à ce résultat tant attendu.

L’objectif de la journée est d’échanger autour de ces technologies d’IA que plus rien ni personne ne pourra arrêter et qu’il conviendra donc de bien les concevoir pour les rendre utiles et efficaces plutôt que risquées et dangereuses !…

Des intervenants experts interviendront pour partager leurs connaissances et expériences. Ils nous éclaireront sur les dernières avancées technologiques et les opportunités émergentes…

La fusion des IA offre un immense potentiel dans de nombreux domaines, qu’il s’agisse de l’industrie, de la santé de l’éducation ou de la créativité artistique.

Que vous soyez professionnel de l’IA, chercheur, décideur, profane ou expert, curieux, cette journée est faite pour vous.

Nous aborderons également les apports de l’IA symbolique aux problématiques de l’éthique, la transparence et l’explicabilité associées aux systèmes basés sur ces technologies.

COORDINATION SCIENTIFIQUE

     

David Cortes

AIvidence

Laurent Gouzènes

KM2-conseil

Bernard Monnier

MIM

   

Guy-Alain Narboni

Implexe,

Association Prolog Heritage

Jean Rohmer

Institut Fredrik Bull,

De Vinci Higher Education

DATE & LIEU

18 janvier 2024

9h00 - 18h00

Ecole Polytechnique

Amphithéâtre Guy-Lussac
Route de Saclay
91128 PALAISEAU Cedex

Ecole Polytechnique

SITUATION

Organisateurs et partenaires

PROGRAMME

09h00 – 09h20

Accueil/lancement de la journée

IA Hybride: quelques questions à se poser et quelques voeux

Jean Rohmer

Animateur :
Bernard Monnier

09h20 – 11h00

État des lieux en IA :
• Symbolique / Connexionnisme /
Hybridation / I
nteraction homme machine

Animateur :
Laurent Gouzènes

Comment faire le lien entre l’IA et la Créativité ?

Wendy Mackay

DataIA

Quelques exemples d’hybridation connaissances et apprentissage pour l’interprétation d’images

Céline Hudelot

DataIA

Formalismes logiques en IA : quelques exemples

Stéphane Demri

LMF – CNRS

Leveraging Symbolic AI for XAI Purposes

Pierre Marquis

CRIL – CNRS

11h00 – 11h20

Pause café

11h20 – 12h50

Hybridation symbolique / connexionnisme

Animateur :
Bernard Monnier

Améliorer les systèmes de classification neuronaux avec de la connaissance logique a priori

Arthur Ledaguenel

Ma thèse à « Université Paris Saclay » en 3mn

XTRACTIS®, une IA Raisonnante Générale pour Découvrir des Connaissances Prédictives Robustes

Zyed Zalila

INTELLITECH

IA Raisonnante souveraine dans les Systèmes Critiques

Stéphane Delaye

Eviden

IA hybride dans la Défense et la Sécurité

David Sadek

Thales

Expliquer les IA : de l’IA statistique à l’extraction de connaissance via une approche « régionale »

David Cortes

AI-vidence

Etienne Bernard (vidéo)

NuMind

12h50 – 13h00

Les jeunes talents

Animateur :
Bernard Monnier

Mon CV en 2 MN

Oumaima Bekkai

Poste en data science

Léa Lesbats

Thèse CIFRE

Nicolas Saint

Master data scientist

Matthis Guerin

Stage

13h00 – 14h00

Déjeuner

14h00 – 14h30

Lien association X-IA
Présentation de startups : ma startup

Animateur :
Laurent Gouzènes

Learning Robots, Teaching Artificial Intelligence to Everybody

Thomas Deneux

LearningRobots

Former avec l’IA

Wassym Kalouache

Corolair

Dérisquer la décision dans un monde incertain grâce à l’IA

Maurice Ndiaye

DescartesMaus.ai

IA hybride, pour greenAI, pour télécoms

Rémi Perthuisot

Muvraline

Raphael Frisch (vidéo)

HawAI.tech

14h30 – 16h00

Hybridation homme / machine

Animateur :
Bernard Monnier

Borges and AI

Léon Bottou

(en visio depuis New york)

Méta

IA pour l’aviation de combat/hybridation homme/machine

Bruno Patin

Dassault Aviation

Des IAs et des Hommes – Pour une approche behavioriste du couple humain(s)-algorithme(s) dans les applications critiques

Nicolas Vayatis

École normale supérieure Paris-Saclay

16h00 – 16h15

Pause café

16h15 – 17h45

Débat :
• Qu’est-ce que l’intelligence ?
• L’IA sera-t-elle intelligente un jour ?
• L’IA est-elle capable de faire un raisonnement ?
• Spécialisation vs générale
• Où va-t-on ?
• Une révolution utile ? futile ? dangereuse ?
• Utilisation de connaissances ou vol de savoir-faire ?

Animateur :
Laurent Gouzènes

Caroline Chopinaud

Mouadh Yagoubi

Pascal Alix

Christophe Labreuche

Judith Nicogossian

Christophe Rodrigues

Johann Dréo

Nicolas Sabouret

Hub France IA

IRT System X

Avocat

Thales

Anthopologue

Enseignant-Chercheur en IA, Pôle Léonard de Vinci

Institut Pasteur

Professeur à l’Université Paris-Saclay

17h45 – 18h00

Conclusion, perspective

Animateur :
Bernard Monnier

Résumé de la présentation

Matin

Après-midi

IA Hybride : quelques questions à se poser et quelques vœux | Jean Rohmer

Ingénieur ENSIMAG, Docteur-Ingénieur et Docteur-ès-Sciences en informatique de l’Université de Grenoble. Chercheur à l’INRIA.
Jean Rohmer a créé et dirigé les activités de recherche puis industrielles en IA du Groupe Bull. Ses équipes ont réalisé quelques-uns des plus gros Systèmes-Experts et ont développé et déployé des outils et applications de Programmation Logique par Contraintes sur tous les continents.
Sa société Idéliance a ensuite développé le logiciel de gestion de connaissances du même nom, utilisé en particulier pour le renseignement militaire, dont il a accompagné le développement chez Thalès.
Il a été directeur de la recherche de l’École d’Ingénieurs ESILV.
Il préside actuellement l’Institut Fredrik Bull.

Comment faire le lien entre l'IA et la Créativité ? | Wendy Mackay

Comment pouvons-nous concevoir des « partenariats humain-machine » qui tirent le meilleur parti des compétences humaines et des capacités de la machine ? La recherche en intelligence artificielle est généralement mesurée par l’efficacité des algorithmes, alors que nous nous intéressons au problème d’améliorer les capacités des professionnels créatifs. Le but n’est pas de remplacer la créativité humaine, mais d’augmenter leurs possibilités d’expression de leurs idées.
J’introduis nos travaux sur les « théories génératives de l’interaction » avec plusieurs exemples de nos projets avec les musiciens, les chorégraphes et les artistes.

Quelques exemples d'hybridation connaissances et apprentissage pour l'interprétation d'images | Céline Hudelot

L’IA neuro-symbolique est un domaine de recherche en pleine expansion qui vise à combiner les capacités d’apprentissage des réseaux de neurones avec les capacités de raisonnement des systèmes symboliques. Cette hybridation peut prendre de nombreuses formes en fonction de la manière dont les composants neuronaux et symboliques interagissent. Dans cette présentation, nous commencerons par présenter les grandes familles d’approches de l’ia neuro-symbolique, puis nous présenterons quelques cas concrets de systèmes hybrides proposés pour des tâches d’interprétation d’images.

Céline Hudelot a soutenu une thèse en Informatique à l’INRIA Sophia Antipolis et à l’INRA en 2004. Elle a ensuite réalisé un post-doc à Télécom ParisTech puis est devenu enseignant-chercheur à l’école en 2006. Elle est aujourd’hui Professeur au Département d’Informatique, responsable de la Dominante Informatique et Numérique et de la mention IA et elle dirige le laboratoire MICS (Laboratoire Mathématiques et Informatique pour la Complexité et les Systèmes). Ses travaux de recherche s’inscrivent dans le domaine de l’intelligence artificielle et ils se situent plus particulièrement à la frontière des domaines de la représentation des connaissances et du raisonnement, de l’analyse et de l’interprétation de données multimédia, de la fouille de données et de l’apprentissage de représentations.

Formalismes logiques en IA : quelques exemples | Stéphane Demri

Dans cet exposé, des formalismes logiques classiques pour la représentation des connaissances sont brièvement présentés. Quelques travaux plus récents sont décrits, dont certains mêlant logiques et apprentissage.

Stéphane Demri. Directeur de recherche CNRS au Laboratoire Méthodes Formelles (LMF), ENS Paris-Saclay. Ingénieur ENSIMAG, filière IA (1990), docteur en informatique de l’Institut National Polytechnique de Grenoble (1994). Recherche sur les logiques pour la vérification et pour les aspects formels de l’IA, en particulier sur la complexité algorithmique de problèmes de décision. Plus de 150 publications dans le domaine des logiques pour la vérification ou pour l’IA (cf. cv.hal.science/stephane-demri) incluant deux monographies (Cambridge University Press et Springer). Directeur du Laboratoire Spécification et Vérification, ENS Cachan (2015-2019), récipiendaire d’une bourse Marie Curie IOF (2012-2015) à New-York University.

Leveraging Symbolic AI for XAI Purposes | Pierre Marquis

In this talk I will sketch how concepts and methods from symbolic AI can be exploited for reasoning about ML models in a perspective of eXplainable AI. Approaches based on symbolic AI techniques will be considered for various purposes, including explaining predictions, correcting models, and distilling opaque models into more interpretable ones.

Pierre Marquis est professeur d’informatique à l’université d’Artois et membre honoraire de l’Institut Universitaire de France. Il dirige actuellement le Centre de Recherche en Informatique de Lens (CRIL-CNRS, UMR 8188), une unité mixte entre le CNRS est l’université d’Artois. Depuis plus de trente ans, ses activités de recherche concernent l’IA symbolique et plus particulièrement la représentation des connaissances et le raisonnement automatisé. Il pilote actuellement une chaire de recherche et d’enseignement en intelligence artificielle, centrée sur les questions d’IA explicable.

Améliorer les systèmes de classification neuronaux avec de la connaissance logique a priori | Arthur Ledaguenel

L’IA neurosymbolique est un champ de recherche émergent qui cherche à combiner les capacités d’apprentissage des réseaux de neurones avec les aptitudes de raisonnement des systèmes symboliques. Cette hybridation peut prendre de nombreuses formes différentes. Dans ma thèse, je travaille sur un sous-domaine, appelé l’Apprentissage Machine Informé par la connaissance, qui étudie comment exploiter de la connaissance a priori pour améliorer les performances de systèmes basés sur les réseaux de neurones.

Diplômé de CentraleSupélec avec une spécialité Intelligence Artificielle en 2021, j’effectue mon stage de fin d’études au Cnam sur un projet de recherche exploratoire pour l’association Le Cartable Fantastique, qui développe des outils numériques éducatifs pour les enfants en situation de handicap. J’y découvre mon goût pour la recherche et décide donc de poursuivre mon parcours en thèse dans le domaine de l’IA neurosymbolique au sein de l’IRT SystemX et du laboratoire MICS.

XTRACTIS®, une IA Raisonnante Générale pour Découvrir des Connaissances Prédictives Robustes | Zyed Zalila

Une IA Souveraine de Confiance pour concevoir, auditer et certifier les systèmes décisionnels critiques à haut risque.

Dès sa fondation en 1956, l’Intelligence Artificielle (IA) avait opposé deux écoles : les Connexionnistes proposèrent le concept de réseau de neurones artificiels, avec pour objectif de modéliser la perception humaine. Quant aux Cognitivistes, dont l’objectif était de modéliser le raisonnement humain, ils mobilisèrent les concepts de règle et de schéma d’inférence, introduits par Aristote au 4e siècle av JC, pour créer les systèmes-experts.

Ces deux approches originelles ont toutefois montré leurs limites :
– Les systèmes-experts prennent des décisions en déployant des raisonnements déductifs, sur des connaissances délivrées par des experts humains (modèle boîte-blanche / transparent). Cependant, ils sont très limités dans leurs performances à cause de la logique binaire utilisée et de la faible robustesse des connaissances humaines, due à la limitation de notre entendement.
– les réseaux de neurones prennent des décisions probabilistes sans faire appel à des connaissances validées et sans pouvoir justifier leurs décisions (modèle boîte-noire / opaque). Toutefois, grâce à leur forte non-linéarité et à la puissance de calculs proposée par les cartes GPU, ils réussissent à résoudre des classes de problèmes très intéressantes et attractives pour le grand public : perception visuelle et sonore, traduction automatique, IA générative dont les agents conversationnels.

À partir de la théorie des relations floues d’ordre N [Zalila 1993], j’ai proposé dès 2003 une troisième approche : l’IA Symbolique Floue Augmentée (IASFA).

Quelles en sont ses spécificités ? L’IASFA allie la forte non-linéarité des logiques continues (dites « floues » ou à infinité d’états), l’intelligibilité des règles décisionnelles, et la robustesse de l’induction floue automatique, c’est-à-dire, la découverte automatique de connaissances à partir d’observations. L’IASFA procède donc selon la méthode scientifique expérimentale introduite par al-Hassan ibn al-Hassan ibn al-Haytham al-Basri au début du 11e siècle.

Comment exploiter l’IASFA de manière pratique ? L’IA de Confiance XTRACTIS® implémente les trois formes de raisonnement humain (induction, déduction et abduction) dans une plateforme no-code. Elle permet ainsi à n’importe expert métier de devenir aussi un super modélisateur.

À partir d’un ensemble de données structurées, qu’elles soient quantitatives ou qualitatives, sur le Processus/Phénomène Complexe (PPC) étudié, les robots REVEAL sélectionnent les prédicteurs et créent automatiquement les connaissances qui modélisent ce PPC, sous la forme de règles SI…ALORS à logiques continues ; puis, ils évaluent la robustesse du modèle, grâce à un processus intensif de validation croisée. L’approche holistique proposée prend totalement à contrepied le réductionnisme physicaliste et le causalisme incrémental de Descartes : en première intention, chaque robot doit induire un modèle avec l’intégralité des prédicteurs à sa disposition ; ainsi, peuvent être détectés et exploités les signaux faibles et moyens. Les robots REVEAL jouent ainsi le rôle de scientifiques virtuels ou d’exocerveau.

REVEAL est capable d’analyser en simultané des dizaines/centaines de milliers de variables en interactions si nécessaire, ce qu’aucun humain n’est en mesure de faire, même le plus doué d’entre nous (max 10 variables !). Formant une IA collective et évolutive, les robots REVEAL vont perfectionner continument leurs stratégies de raisonnement inductif pour espérer découvrir des modèles encore plus robustes. Pour démultiplier la vitesse d’induction et réduire la durée de découverte des top-modèles, les robots peuvent être distribués sur plusieurs serveurs physiques (scale out).

Les performances prédictive et réelle des modèles XTRACTIS® sont au moins équivalentes à celles des modèles produits par les meilleures techniques IA actuelles (forêt aléatoire, arbres boostés, réseau de neurones). Le top-modèle prédictif performant et transparent induit par XTRACTIS® peut alors être audité par l’expert métier et certifié par le régulateur, avant son déploiement : pour réaliser des prédictions de manière rationnelle et déterministe à très haute fréquence (PREDICT), ou rechercher les solutions les plus optimales satisfaisant des requêtes multi-objectif sous contraintes flexibles (OPTIMIZE).

Dans le cadre de cette présentation, nous exposerons les points épistémologiques saillants de l’IASFA. Nous expliquerons la différence entre Intelligibilité et Explicabilité, en montrant pourquoi il est nécessaire de disposer de systèmes décisionnels à la fois performants et intelligibles si l’on souhaite déployer des applications IA critiques à haut risque (Santé, Défense, Cyber, Sécurité, Finance, Engins Autonomes, Industrie 4.0, Énergie, Environnement, Droit, RH). Nous insisterons sur l’importance de la souveraineté de l’IASFA garantissant des avantages stratégiques, tant économique que géopolitique.

Tout au long de la journée, Stéphane DELAYE, responsable IA de Confiance de notre partenaire EVIDEN, proposera des démonstrations XTRACTIS® sur des cas d’usage publics.

Prof. Zyed ZALILA est PDG-Fondateur de la DeepTech INTELLITECH [intelligent technologies] et son directeur R&D. Ingénieur en mathématiques appliquées et en intelligence artificielle de l’Université de Technologie de Compiègne (UTC), MSc en contrôle des systèmes, Docteur en mathématiques, Habilité à Diriger des Recherches, Prof. Zalila est responsable à l’UTC, depuis 1993, de l’enseignement des mathématiques du flou et de leurs applications.
Auteur de la théorie des Relations Floues d’ordre N (1993), dès 2002 il propose l’IA Symbolique Floue Augmentée : elle découvre automatiquement des systèmes décisionnels non-linéaires transparents, composés de règles SI…ALORS à logiques continues, à partir des données imparfaites du monde réel. Il est l’inventeur de plusieurs systèmes de conduite automatique de véhicules (dès 1990), opérationnels sur route ouverte, et l’inventeur concepteur co-développeur de l’IA Raisonnante Générale de Confiance XTRACTIS® dédiée à la Modélisation Prédictive Robuste, Intelligible et Auditable de processus complexes à haut risque (depuis 2003).

IA Raisonnante souveraine dans les Systèmes Critiques | Stéphane Delaye

Dans le cadre d’emploi qui est propre à chacun, en tant qu’organisation ou individu, il est important de comprendre les caractéristiques des IA pour sélectionner celles qui apportent des bénéfices et limitent les risques. 
 
L’intervention d’Eviden a pour objectif de donner des pistes dans la mise en œuvre de systèmes critiques et, en particulier, de l’IA de raisonnement.
 
 Si résoudre un problème complexe est, dans l’état des connaissances actuelles, une combinaison d’IA, de systèmes de numérisation classique, de capteurs physiques, de collaboration homme machine, … nous sommes convaincus que l’IA de raisonnement est la clé de voute de l’ensemble. C’est elle qui nous permettra de garder le contrôle des opérations (« Human in the loop ! »)  car l’IA de raisonnement projette sa démarche d’action sur le raisonnement humain par son intelligibilité. Par sa façon de s’adresser à son commanditaire de manière intelligible, elle permet une explicabilité de chaque décision à haut risque.
Sur la base de l’IA raisonnante Xtractis® présentée par le Pr Zyed ZALILA, nous évoquerons en quoi cette implémentation des théories associées permet une application efficace et conforme aux critères d’acceptation des systèmes critiques. 
 
 L’intervention se déroulera en 2 temps :
– En session plénière, pour évoquer rapidement les caractéristiques et bénéfices attendus pour les systèmes critiques
– En démonstration dans l’espace réservé pour échanger sur du concret et les points d’intérêt de chacun.
 
En session plénière, nous évoquerons les caractéristiques communes nécessaires aux cas d’usages dans les systèmes critiques, la démarche d’instanciation des 3 modes de raisonnements humains augmentés par Xtractis®, les prérequis associés et, bien sûr, la mesure et l’efficience des résultats obtenus.
 
En accès direct à Xtractis®, nous mènerons ensuite les démonstrations sur des bases publiques d’après vos demandes, vous permettant de concrétiser la valeur ajoutée.
 
Stéphane DELAYE est Chief Technology Officer chez Eviden, dans la branche Big Data & Sécurité. Ingénieur ENSIIE & IAE de Paris – Université Panthéon Sorbonne, il intervient au service des entreprises et administrations dans la mise en œuvre de solutions centrées autour de la donnée nécessitant des approches pluridisciplinaires.
Après un début de carrière dans le trading bancaire et les systèmes experts des années 90, il a évolué dans les secteurs de la finance publique, des télécoms et de la santé dans un contexte français et international, en particulier dans la zone Asie Pacifique. Depuis 2017 dans les activités de Défense et Sécurité d’Eviden, en commandement et intelligence, il travaille sur des solutions dans des contextes d’aide à la décision pour rendre les systèmes critiques intelligents, utiles et efficients, en respectant l’éthique, la souveraineté et l’humain dans la boucle.
Expliquer les IA : de l'IA statistique à l'extraction de connaissance via une approche « régionale » | David Cortes

Si les IA symboliques reflètent et s’inspirent du raisonnement logique humain, ce n’est pas le cas des IA issues de l’apprentissage statistique. Ces dernières ont cependant montré leur apport en performance prédictive, dès lors que le phénomène modélisé dépasse la capacité humaine d’inférence. Et cela, bien qu’elles ne reposent que sur l’exploitation de corrélations, ou d’associations par analogie. Et qu’elles ne livrent pas du tout nativement de compréhension à l’homme de leur logique interne de fonctionnement (la transparence sur les milliards de poids d’un modèle d’apprentissage profond n’est pas une réponse)

Comment donc utiliser des IA statistiques en confiance ? (Éthique, robustesse, adoption) Faire gagner les IA logiques en performance ?
Pour concilier les deux approches, au moins 2 défis sont à résoudre :
– la compréhension à l’échelle humaine du fonctionnement du modèle prédictif (objet généralement très complexe)
– sa retranscription en mécanismes compréhensifs, robustes et performants.

AI-vidence développe un outil et des méthodologies pour permettre au concepteur de modèles d’expliquer le fonctionnement de son modèle : tout au long de son cycle de vie, et à chacun en fonction de ses enjeux opérationnels (performance, robustesse, explicabilité, conformité, etc.).
Pour cela, nous utilisons les outils d’IA à l’état de l’art pour ausculter les IA… et nous introduisons une approche d’explication « régionale », entre « locale » (expliquer une décision) et « globale » (le fonctionnement global du modèle). Cela permet de :
– travailler à des échelles compréhensibles pour les utilisateurs de modèle,
– contextualiser les explications, et
– proposer des modèles de substitution plus simples (approche cartésienne), en IA plus symboliques (notamment : approche causale).

David Cortés est ingénieur (Ecole Polytechnique, Telecom Madrid, Data Science via Stanford), ancien directeur Data & IA de PwC et président de jeune pousse en e-santé.
Après des expériences en industries (opérateurs Telecom, Energie, Transport) il s’est spécialisé en sujets « Données et IA explicables » depuis 2013. Il a été à l’origine du lancement de la Chaire IA Explicable de Telecom Paris.
VP du bureau d’X-IA (association des anciens de Polytechnique passionnés d’IA), il participe également à la French Tech Corporate Community, pour notamment favoriser les actions PPP, et d’IA Responsable des grands groupes français.
Il co-fonde AI-vidence en avril 2021, convaincu de l’importance opérationnelle (adoption, conformité) et sociétale de rendre les IA statistiques explicables.
AI-vidence a été co-lauréate du techsprint Explicabilité de l’ACPR dès 2021, et a rejoint le collectif nationale Confiance.AI en 2022.

À la recherche d'un CDI en Data Science | Oumaima Bekkai

Je présenterai mon parcours en tant que jeune diplômée, illustrant mon cheminement académique et professionnel et ma recherche active d’un poste de data scientiste.

Je suis Oumaima Bekkai, fraîchement diplômée de l’ESIEE Paris, spécialisée en data science et intelligence artificielle, et titulaire d’un Master of Science de l’Université Heriot-Watt d’Édimbourg. Mon parcours professionnel inclut des expériences de sages et projets chez : ASP-Yvelines en tant que développeuse android, data analyste chez Akka technologies, data scientiste chez Pixee Medical et R&D developer chez Dassault Systèmes. De plus, mon mémoire de Master s’est concentré sur l’évaluation de modèles d’apprentissage automatique pour la détection de fraudes financières.

Objectif professionnel : Thèse CIFRE ou poste de Data Scientist en IA appliquée à la recherche médicale | Léa Lesbats

Dans cette présentation, je mettrai en lumière mon parcours académique et mon intérêt pour l’intégration de l’IA dans la recherche médicale. Diplômée des Mines d’Albi X Georgia Tech, je suis motivée à contribuer à ce domaine, que ce soit par une thèse CIFRE ou en tant que data scientist.

Ingénieure diplômée en Data Science de Georgia Tech et de l’École des Mines d’Albi, je suis passionnée par les applications de l’intelligence artificielle en biologie et en recherche médicale. J’ai pu acquérir une solide formation en biologie grâce à une classe préparatoire aux grandes écoles dans cette discipline (BCPST). J’ai renforcé mon intérêt pour ces domaines à travers des stages à l’Institut Pasteur, à Georgia Tech et au GERAD (centre de recherche collaboratif industriel entre HEC Montréal, l’École Polytechnique de Montréal, l’Université McGill et l’UQAM). Je vise maintenant à approfondir mes compétences en poursuivant une thèse CIFRE ou dans un rôle de data scientist.

Mon CV en 2 minutes| Nicolas Saint

Pitcher mon CV dans le cadre de ma recherche de stage de fin d’études en tant que data scientist.

Etudiant en double diplôme : Master 2 Data Science à l’Institut Polytechnique de Paris | ECE Paris

 

Mon CV en 2 minutes| Matthis Guerin

Pitcher mon CV dans le cadre de ma recherche de stage de fin d’études.

Étudiant en double diplôme : Master 2 Data Science à l’Institut Polytechnique de Paris | ECE Paris

Learning Robots, Teaching Artificial Intelligence to Everybody | Thomas Deneux

I will present the Learning Robots startup company, which offers everybody understanding and mastery of AI. Our software product « AlphAI », initially developed at CNRS, allows users to easily train educational robots, and immerses them in intuitive visualizations of AI algorithms.

Thomas Deneux did his PhD in Artificial Intelligence at Paris’ Ecole Normale Supérieure and his postdoctoral research in Experimental Neurobiology, at the Weizmann Institute of Science in Israel and at the French CNRS. He his now a researcher at the Paris-Saclay Institute of Neuroscience.

Passionate about understanding biological and artificial intelligence, he founded the Learning Robots company to offer everybody understanding and mastery of AI.

Former avec l'IA | Wassym Kalouache

Pendant cette intervention, je décrirai l’impact que l’on observe d’ores et déjà sur l’éducation (au sens anglais, c’est-à-dire l’école mais aussi la formation professionnelle). Si c’est possible, je ferai une démonstration en live de Corolair.

Corolair utilise des technologies de vectorisation de texte et de RAG pour re-trouver rapidement le contexte pertinent des documends en entrée ainsi que des algorithmes de clustering pour trouver les thématiques les plus abordées par les apprenants. De plus d’ici mi-janvier nous aurons expérimenté des LLMs open-source, nous pourrons apporter nos retours d’expérience.

Wassym Kalouache, co-fondateur et CEO de la startup Corolair, fusionnant GenAI et éducation pour soutenir les formateurs. Diplômé de Polytechnique et de Columbia en data science, il occupé le poste de premier Data Scientist chez Weight Watchers, supervisant le recrutement d’une équipe complète (data analyst, data engineering et data science). En tant que premier Data Product Manager chez Dailymotion, il a contribué à l’amélioration du management de produits data. Fort de son expertise en data, il a ensuite enseigné la data au Wagon.

Dérisquer la décision dans un monde incertain grâce à l’IA | Maurice Ndiaye

Dans un monde extrême, volatil et incertain, la prise de décision, que ce soit au niveau dirigeant ou chef de projet, est devenue extrêmement difficile. En extrayant de grandes quantités d’informations sur une entreprise et son environnement de marché, Descartes & Mauss construit un logiciel de simulation qui produit des arbres de décision sur les futurs possibles, les scores, et permet d’orienter les allocations de ressources (K, L), avec plus de rapidité, plus de robustesse, et avec des coûts moindres que les méthodes plus traditionnelles.

Maurice est devenu entrepreneur dans la tech après un diplôme de l’Ecole Polytechnique et un début de carrière chez McKinsey. Il travaille depuis 15 ans sur les applications de l’IA dans les processus décisionnels. Il a récemment fondé Descartes & Mauss, une start-up qui commercialise un logiciel de productivité intelligente à partir d’IA (LLMs et GenAI).

Green for AI and AI for green, with a hybrid AI. Telcos example | Rémi Perthuisot

L’IA connexionniste a permis des progrès immenses en informatique, notamment pour la reconnaissance de texte et d’image. Cependant, par construction, d’un point de vue de la théorie de l’information, ce système est limité dans l’information réelle qu’il peut produire, notamment par la quantité de données d’apprentissage nécessaire.
Les hommes, depuis plus de 3.000 ans, ont accumulé des connaissances, sous forme symbolique. La logique modale est un moyen d’informatiser ces données.
L’hybridation de couches d’IA connexionniste et d’IA symbolique permet d’allier la puissance de reconnaissance élémentaire des réseaux de neurone, et l’agilité et la réflexion des experts humains.
Muvraline a développé, notamment pour le secteur des télécoms, des exemples d’hybridation. Il en ressort des modèles plus respectueux de l’environnement, plus rapides à mettre en place, et plus efficaces pour les utilisateurs.

Rémi Perthuisot est Président de Muvraline, ingénieur (École Polytechnique, Télécom Paris) et titulaire d’un DEA en Sciences Cognitives (X-Ulm-EHESS)
Il a occupé différentes fonctions de direction dans les télécoms, tout d’abord à l’ARCEP, puis chez Bouygues Telecom, Numericable et SFR. Très proche des problématiques des équipes terrain, en 2018, il fonde une spin-off du groupe Altice-SFR pour optimiser grâce à l’IA l’activité des équipes terrain.
Il est engagé dans plusieurs associations pour promouvoir le développement durable.

Borges and AI | Léon Bottou

Ceux qui voient des opportunités dans l’intelligence artificielle (IA) et ceux qui y voient des dangers partagent en fait un même modèle mental de ce qu’est l’IA, dont l’imagerie est ancrée dans notre culture depuis Homère, et mise en couleurs par la science-fiction moderne. Avant de se demander si les machines vont se rebeller, il est utile de se demander si cette imagerie rend bien compte des propriétés des technologies d’IA récentes. Faisons-nous comme les anciens qui voyaient le temps qu’il fait comme l’expression des humeurs de dieux. Afin d’échapper au modèle mental dominant, nous avons tenté de comprendre ces technologies au travers de l’imagerie créée par Jorge Luis Borges, dont les nouvelles décrivent des univers imaginaires et explorent la relation entre langage et réalité. Cette tentative s’est révélée très productive, éclairant la relation entre modèle de langage et intelligence artificielle, offrant plusieurs concepts utiles, et donnant une compréhension nouvelle de l’état de l’art et du chemin à suivre.

Léon Bottou, ancien élève de l’École Polytechnique (X84), s’intéresse aux approches connexionnistes de l’intelligence artificielle depuis 1986. Après un doctorat en informatique (Paris XI, 1991, sous la direction de Françoise Fogelman), sa carrière de recherche l’a conduit aux Bell Laboratories en 1989 et AT&T Labs Research in 1996, au NEC Research Institute à Princeton en 2002, Microsoft en 2010, et finalement FAIR à Facebook / Meta en 2015. Ses travaux ont suivi plusieurs directions, anticipant la théorie et la pratique de l’apprentissage automatique et étudiant les algorithmes de gradient stochastique (1990-1995), vision par ordinateur et prévision structurées (1995-1998), compression d’image DjVu (1998-2005), théorie du passage à l’échelle en apprentissage (2005-2010), et relation entre apprentissage et raisonnement depuis 2010, avec un accent sur les multiples aspects de la causalité (inférence, invariance, raisonnement causal, affordances, et intuition.)

IA pour l'aviation de combat/hybridation homme/machine | Bruno Patin

Dans le cadre de l’aviation de combat, des réflexions existent maintenant depuis une dizaine d’année quant à la façon d’inventer le futur du pilote. Il apparaît que celui-ci est dans une connexion de plus en plus forte avec le système de combat (ce que l’on appelle le SCAF pour Système de Combat Aérien du Futur) et que de plus ce système commence à intégrer dans sa conception et lors de l’exécution une représentation des pilotes et des opérateurs afin « d’asservir » ses réactions ainsi que son organisation afin d’obtenir un système hybride le plus optimisé vis-à-vis de la mission. C’est ce qui a été appelé Système de Combat Cognitif dans le cadre des travaux MMT (Man Machine Teaming) financé par la DGA à Dassault Aviation et Thalès et qui sert en grande partie de support à cette présentation. On finira en évoquant le travail en cours dans le cadre du projet Européen EICACS (European Initiative for Collaborative Air Combat Standardization) qui prolonge MMT en élaborant les recommandations de travaux et standards nécessaires à la mise en place du Combat Collaboratif pour l’horizon 2040.

Bruno Patin a réalisé toute sa carrière chez Dassault Aviation. Il a commencé par définir, mettre en place et utiliser les moyens de mesure Sol de la surface équivalente radar des avions ainsi que des rayonnements antennes avec la mise au point des premières exploitations 3D. Après dix ans dans cette activité, il a été appelé, à la fin des années 90, à la direction de la prospective afin de proposer les travaux exploratoires pour la mise en place des avions sans pilote. Il a ainsi contribué à mettre en place les premiers planificateurs distribués ou bien l’utilisation des techniques d’asservissements. Il a ainsi participé à de nombreux projets européens ou nationaux dans le but de mener les développements nécessaires. Au-delà des aspects technologiques, il a aussi contribué à la définition des procédures et des méthodes permettant l’intégration des avions pilotés à distance au sein d’un trafic d’avions civils avec la contribution aux projets financés dans le cadre du ciel unique européen. Il participe depuis plusieurs années aux études traitant des interactions entre les équipages et les systèmes bords et sols afin de permettre la meilleure définition et utilisation du système de combat aérien. Il a contribué de façon forte au projet « Man Machine Teaming » dont la présentation utilise les résultats.

Des IAs et des Hommes | Nicolas Vayatis

Nous évoquerons plutôt les questions des interfaces entre humains et algorithmes, qui me semble plus en lien avec la thématique. Je m’appuierai sur des exemples dans quatre secteurs : santé, industrie, transports, recherche

Nicolas Vayatis est professeur au département de mathématiques de l’ENS Paris-Saclay et ELLIS fellow. Il dirige le Centre Borelli (UMR 9010) qu’il a cofondé en 2020 et qui réunit 150 personnes investies dans la recherche aux interfaces des mathématiques et des neurosciences. Son domaine de recherche est le machine learning qu’il a investigué sous ses aspects fondamentaux, dans ses dimensions algorithmiques et également dans les défis posés par l’adoption des algorithmes par des experts humains dans l’industrie et la santé

Débat : Où va l'IA d'aujourd'hui ?

Hybridation Simulation Physique/IA : enjeux & démarche de validation.

L’utilisation de la simulation numérique dans l’industrie se heurte à plusieurs limites, telles que la difficulté à modéliser certains phénomènes physiques ou bien le coût de calcul qui peut être très élevé. Dans ce contexte, l’Intelligence Artificielle (IA) s’est imposée comme une piste prometteuse pour y faire face et permettre une utilisation plus efficace des simulateurs physiques dans la prise de décision. Dans cette présentation, nous nous intéressons aux défis associés à la mise en place des simulateurs physiques augmentés par l’IA, et nous discuterons les enjeux liés à leur validation pour un déploiement industriel.

Mouadh Yagoubi est Docteur-Ingénieur en informatique. Diplômé de CentraleSupélec, il réalise une thèse doctorat CIFRE au sein du groupe Stellantis et de l’Inria Saclay en 2012. Il rejoint l’IRT SystemX en 2014 en tant qu’ingénieur-chercheur en simulation numérique et ingénierie systèmes. Depuis 2017, il est Chef de projet à SystemX et coordonne les activités de plusieurs projets collaboratifs autour de la simulation numérique et de l’IA hybride. Il est aussi référent de la thématique « Systèmes industriels & ingénierie augmentée » et coordonne les activités du programme IA2.


Caroline Chopinaud est directrice générale du Hub France IA, une association loi 1901 qui regroupe 130 membres et vise à fédérer les acteurs de l’écosystème IA, promouvoir le développement de cette technologie au niveau français et européen et favoriser l’émergence de nouveaux acteurs.

Elle est docteure en informatique (spécialité IA) et travaille depuis 20 ans dans le domaine de l’Intelligence Artificielle. Après deux années dans l’enseignement en IA & Informatique à Paris 6, elle a rejoint en 2008 une PME du secteur de la Défense et de la Sécurité Civile pour développer les IA de simulateurs d’entrainement. À partir de 2012, elle a pris la tête du pôle innovation de l’entreprise et élaboré plusieurs projets collaboratifs en France et à l’Europe sur l’IA pour la robotique, les serious games ou encore l’internet des objets (IoT). En 2015, elle a fondé une startup deeptech sur une solution d’auto-apprentissage pour les séries temporelles et fin 2020, elle a rejoint le Hub France IA.


Christophe Labreuche : Senior expert en IA à Thales Research & Technology. Ecole Centrale de Lyon (1993) ; Thèse en Mathématiques appliquée de l’Université Paris Dauphine (1997). Après avoir travaillé sur les équations aux dérivées partielles, il s’est ensuite intéressé à l’IA et la Recherche Opérationnelle, dans les domaines de la théorie de la décision et en particulier la décision multicritère et la théorie des jeux, la négociation et l’optimisation décentralisés ainsi que l’IA explicable (XAI). Il a plus de 40 articles publiés dans des journaux et 100 publications dans des conférences.

 

 


Nicolas Sabouret est professeur à l’université Paris-Saclay où il dirige la graduate school d’Informatique et Sciences du Numérique. Il enseigne l’informatique aux étudiants de l’université et de CentraleSupélec. Il mène des recherches en Intelligence Artificielle depuis plus de 20 ans. Ses travaux portent sur la modélisation et la simulation du comportement humain, en combinant des modèles d’Intelligence Artificielle avec des théories issues des sciences humaines et sociales, avec des applications dans des domaines très variés : étude de la consommation énergétique des ménages, agents conversationnels expressifs pour améliorer la relation client ou pour des applications en santé, prise en compte des facteurs humains dans les systèmes critiques… Il est l’auteur de deux livres à destination du grand public : « Comprendre l’Intelligence Artificielle » aux éditions Ellipses et « L’Intelligence Artificielle n’est pas une question technologique » en 2022, co-écrit avec le philosophe Laurent Bibard.


Johann Dreo est ingénieur de recherche expert à l’Institut Pasteur, où il travaille sur la combinaison d’outils d’intelligence artificielle symboliques et computationnels pour la conception d’outils d’aide à la décision dans la lutte contre le cancer.

Après des études universitaires en écologie, il a étudié les mathématiques appliquées et obtenu un doctorat en IA bio-inspirée. En 23 ans, il a travaillé dans les secteurs académiques et industriels avant de rejoindre l’Institut Pasteur au sein du département de biomédecine des systèmes computationnels et du hub de bioinformatique & de biostatistique. Il a successivement travaillé sur l’évaluation de performances de l’IA computationnelle, la planification automatique, la géométrie différentielle appliquée, le design automatique d’algorithmes d’IA et l’emploi de graphes sémantiques pour l’IA explicable.

Plusieurs des codes d’optimisation mathématique open-source auxquels il a participé ont reçu des prix académiques. Il donne également un cours sur l’algorithmique de l’IA au sein de l’Institut Polytechnique depuis plusieurs années et est auteur d’un livre sur les métaheuristiques.