A la croisée des révolutions numériques

Generic selectors
Exact matches only
Search in title
Search in content
Generic selectors
Exact matches only
Search in title
Search in content
Home 5 Évènement 5 Séminaire l’IA est-elle explicable ? Un coup d’œil furtif dans la boîte noire des algorithmes de l’IA.

L’IA EST-ELLE EXPLICABLE ? UN COUP D’ŒIL FURTIF DANS LA BOÎTE NOIRE DES ALGORITHMES DE L’IA.

Depuis 2010, l’Intelligence Artificielle basée sur des techniques d’apprentissage machine a produit des résultats impressionnants, principalement dans les domaines de la reconnaissance des formes et du traitement du langage naturel.

L’avantage opérationnel de l’utilisation des méthodes d’apprentissage automatique est reconnu, mais est entravé par le manque de compréhension de leurs mécanismes, à l’origine des problèmes opérationnels, juridiques et éthiques. Cela affecte grandement l’acceptabilité des outils d’intelligence artificielle, qui dépend en grande partie de la capacité des ingénieurs, des décideurs et des utilisateurs à en comprendre le sens et les propriétés des résultats.

En outre, la délégation croissante de prise de décision offerte par les outils d’intelligence artificielle rivalise avec les règles de gestion éprouvées des systèmes experts certifiés. Sans recherche d’explicabilité, l’apprentissage automatique peut donc être considéré comme un colosse aux pieds d’argile.

Le séminaire Aristote du 15 décembre 2018 « L’IA : un buzzword du moment, ou une avancée majeure pour le futur ? » a abordé la thématique de l’explicabilité. Ce prochain séminaire du 17 octobre 2019 sera consacré entièrement à la thématique essentielle de l’acceptabilité de l’IA. Il détaille d’un point de vue scientifique les enjeux de l’explicabilité de l’apprentissage machine et ses implications dans les domaines de la santé et de la justice.

COORDINATION SCIENTIFIQUE

     
Christophe DENIS (LIP6/Sorbonne Université), Jean LATIERE Julia PETRELLUZZI (Doctorante en Droit et intelligence artificielle)

DATE & LIEU

17 octobre 2019

9h00 - 18h00

École Polytechnique

Amphithéâtre ARAGO
91120 Palaiseau

SITUATION

Organisateurs et partenaires

PROGRAMME

08h30 – 09h00

Accueil & café

09h00 – 09h15

Introduction de la journée

Christophe Calvin

ARISTOTE

09h15 – 09h45

L’IA va-t-elle modifier la notion d’explication ?

Alexei GRINBAUM

CEA IRFU

09h45 – 10h15

«Épistémologie des modèles et demandes d’explicabilité pour l’apprentissage machine»

Franck VARENNE
Christophe DENIS

Université de Rouen
Sorbonne Université

10h15 – 10h30

Pause café

10h30 – 11h00

Explicabilité et éthique d’applications IA dans le domaine médical

Christophe DENIS
Judith NICOGOSSIAN

Sorbonne Université
Anthropologue

11h10 – 11h30

Apprentissage artificiel et interprétabilité pour la médecine de précision (TBC)

Jean-Daniel ZUCKER

IRD

11h30 – 12h00

Interprétation d’images médicales : quelques travaux vers l’explicabilité (TBC)

Céline HUDELOT

Centrale Supelec

12h00 – 12h30

L’explicabilité, LA clé pour le déploiement d’IAs dans l’entreprise

Cloderic MARS

Craft-ai

12h30 – 14h00

Déjeuner buffet

Deep Learning & imagerie médicale

14h00 – 14h30

Les limites des algorithmes de Deep Learning dans le domaine de l’imagerie médicale

Issam IBNOUHSEIN

Quantmetry

Empathie,conscience et créativité de l’IA

14h30 – 15h30

Les interactions de l’Intelligence artificielle avec son environnement, ses implications sociales et juridiques

Serge TISSERON
Raja CHATILA
Alain BENSOUSSAN

Académie des Technologies
Sorbonne Université
Cabinet Lexing Alain Bensoussan

L’empathie à l’ère des machines parlantes

Serge TISSERON

Académie des Technologies

Pourquoi l’IA ne peut avoir ni empathie, ni créativité ni conscience
Raja CHATILA

Sorbonne Université

15h30 – 15h45

Pause café
Enjeux et defis du déploiement de l’IA dans la santé

15h45 – 16h50

Intelligence artificielle et santé : quelle éthique dans son usage et quel partage des responsabilités

Delphine JAFAAR
David GRUSON
Dr Jacques LUCAS

Cabinet Jaafar 
Groupe Jouve
Conseil National de l’Ordre des Médecins

Un huron aux pays des algorithmes

Delphine JAFAAR

Cabinet Jaafar

Les médecins à l’épreuve de l’IA en santé

Dr Jacques LUCAS

Conseil National de l’Ordre des Médecins

16h50 – 17h20

L’IA sera-t-elle capable de faire des « expériences de pensée » ?

Etienne KLEIN

CEA

17h20 – 17h35

Conclusion

Résumé de la présentation

L'IA VA-T-ELLE MODIFIER LA NOTION D'EXPLICATION ? ⎮ ALEXEI GRINBAUM

Alexei Grinbaum est philosophe et physicien. Chercheur au laboratoire Larsim du CEA-Saclay, il est spécialiste de l’information quantique. Depuis 2003, il s’intéresse aux questions éthiques liées aux nouvelles technologies, notamment aux nanotechnologies, à l’intelligence artificielle et à la robotique. Il est membre de la CERNA, commission d’éthique pour la recherche en numérique. Son dernier ouvrage est “Les robots et le mal” (Desclée de Brouwer, 2019).

PROBLÉMATIQUES D'EXPLICABILITÉ, DE RESPONSABILITÉ ET DE CONVIVIALITÉ EN IA : QUELQUES PISTES ⎮ FRANCK VARENNE

Dans cet exposé, je présenterai cette partie du travail engagé avec Christophe Denis (Denis, Varenne, 2019) dans laquelle je recours à l’épistémologie comparative des fonctions de connaissance des modèles scientifiques (Varenne 2018). Cette épistémologie se révèle utile pour aborder, plus finement que certaines autres approches, les problèmes spécifiques à l’apprentissage machine (AM), en particulier le déficit d’explicabilité. Même si l’on considère parfois que les méthodes à AM ne sont pas des approches par modèles dans leur processus même, de fait, elles aboutissent, in fine, à produire d’authentiques modèles de décision ou de prédiction. À lumière de l’épistémologie des modèles, je propose de montrer en quoi le déficit d’explicabilité des modèles prédictifs à base d’AM tient – comme on le dit souvent et à juste raison – à l’absence de représentation d’une causalité. Je commencerai en montrant que les distinctions et liens entre interprétation, explication et compréhension doivent d’abord être clarifiés. Ensuite, je montrerai que les modèles à base d’AM s’apparentent aux modèles prédictifs classiques fondés sur l’analyse des données considérées comme des signaux plutôt que comme des signes, mais que certains s’en distinguent (comme les techniques de deep learning) en ce que le pari « métaphysique » sur lequel leur réussite se fonde est loin d’être aussi clair. Je soulignerai enfin les différences entre explication par le modèle, explication du modèle et explication ex post du comportement du modèle à quoi on réduit souvent les recherches en « explainable AI » (Mittelstadt et al. 2019). Cette dernière distinction permet de comprendre pourquoi le fait de détenir un modèle expliquant un modèle à AM, c’est-à-dire un modèle explicatif approché de second degré, expliquant partiellement, de manière locale ou ad hoc le comportement d’un modèle à AM, ne peut pas nous assurer d’une complète confiance en ce modèle.

Références : Denis, C., Varenne, F., « Interprétabilité et explicabilité pour l’apprentissage machine : entre modèles descriptifs, modèles prédictifs et modèles causaux. Une nécessaire clarification épistémologique », Conférence Nationale en Intelligence Artificielle 2019, Actes de la CNIA@PFIA 2019, J. Lang (dir.), Toulouse, pp. 60-69, https://hal.sorbonne-universite.fr/hal-02184519. Actes de la CNIA@PFIA 2019 : https://www.irit.fr/pfia2019/wp-content/uploads/2019/07/actes_CNIA_PFIA2019.pdf

Franck Varenne, maître de conférences HDR à l’Université de Rouen, chercheur rattaché à l’ERIAC (EA 4705) et associé à l’IHPST (UMR 8590), travaille en philosophie des mathématiques appliquées, de l’algorithmique et de l’informatique.

Menées sur un vaste corpus, ses recherches ont d’abord confirmé et précisé la diversité des fonctions de connaissance des modèles et des simulations comme de leurs modes d’articulation : description, explication, prédiction, décision, co-calcul, etc. Il a plus particulièrement analysé les modes récents de construction et d’accréditation des simulations informatiques intégratives (i.e. multi-processus ou multi-échelles) en sciences du vivant et des modèles computationnels complexes (à base d’agents) en sciences sociales. Faisant l’hypothèse que la philosophie des sciences – sous la forme d’une épistémologie comparative et analytique des modèles scientifiques – peut, en retour, être utile en épistémologie et éthique de l’IA, il travaille aujourd’hui à la constitution, en collaboration avec Christophe Denis (LIP6, ACASA), d’un crible d’analyse conceptuelle qui soit applicable dans les problématiques d’explicabilité en IA et apprentissage machine.

APPRENTISSAGE ARTIFICIEL ET INTERPRÉTABILITÉ POUR LA MÉDECINE DE PRÉCISION (TBC) ⎮ JEAN-DANIEL ZUCKER

Ingénieur en aéronautique de formation, Jean-Daniel Zucker a suivi un Master en Intelligence artificielle (IA) pour les sciences de la vie en 1986 qui l’a conduit à travailler pendant trois ans aux États-Unis comme ingénieur puis vice-président R&D d’une startup du New England Medical Center (Boston, USA). Après un second Master en Intelligence artificielle à l’université Paris 6 en 1992 il a obtenu son doctorat (Paris, 6) en Apprentissage automatique en 1996 puis est devenu Maitre de Conférences la même année. Nommé Professeur des Universités en Intelligence artificielle à l’université Paris 13 en 2002.

Il a cofondé le laboratoire LIM&BIO d’informatique médicale et bio-informatique de l’université Paris 13. En 2007, il est devenu Directeur de Recherche à l’IRD : Institut de Recherche pour le Développement.

Il est depuis 5 ans le directeur du laboratoire UMMISCO de recherche en modélisation mathématique et informatique des systèmes complexes dont l’IRD, Sorbonne Université et l’UCA notamment sont co-tutelles. En outre il dirige l’équipe INTEGROMICS de l’Institut hospitalo-universitaire (IHU) sur les maladies cardiométaboliques et la nutrition (ICAN).

Ses recherches se situent en IA et Machine Learning – elles concernent la modélisation des systèmes complexes et l’analyse prédictive en haute dimension appliquée à la santé et en particulier aux maladies cardiométaboliques. Il est l’auteur de plus de deux cent cinquante articles de revues ou de conférences. Il a donné des cours d’intelligence artificielle et de Data Mining dans plusieurs universités en France (Sorbonne Université, UP13) et à l’étranger (USTH, Vietnam). Il a dirigé 24 doctorants dont 20 ont déjà soutenu et a été pendant dix ans le directeur du Programme Doctoral International Modélisation des Systèmes Complexes (PDI MSC) de SU et de l’IRD. Il est par ailleurs le co-auteur de l’ouvrage « Abstraction in Artificial Intelligence and Complex Systems » paru en 2013.

SYSTÈMES D'IA POUR L'INTERPRÉTATION D'IMAGES MÉDICALES : UNE PREMIÈRE ÉTAPE VERS L'EXPLICABILITÉ ? ⎮ CÉLINE HUDELOT

Dans cette présentation, nous introduisons la problématique de l’interprétation d’images médicales et de l’explicabilité des approches proposées au travers de quelques exemples de la littérature. Nous présentons ensuite une approche permettant d’apprendre les relations d’importance ou pertinentes pour un domaine donné et de les utiliser ensuite pour catégoriser les organes avec une explication de la catégorisation.

Celine Hudelot est Professeur des Universités au laboratoire de Mathématiques et Informatique pour la Complexité des Systèmes (MICS) de CentraleSupélec. Elle est docteur en Informatique de l’Université de Nice Sophia Antipolis (diplôme obtenu en 2005). 

Les travaux de Recherche de Céline Hudelot s’inscrivent dans le domaine de l’intelligence artificielle et ils se situent plus particulièrement à la frontière des domaines de la représentation des connaissances et du raisonnement, de l’analyse et de l’interprétation de données multimédia, de la fouille de données et de l’apprentissage de représentations. Plus généralement, ses travaux concernent la problématique de l’interprétabilité et de l’explicabilité des systèmes d’IA.  

Elle est en charge dans le laboratoire MICS d’un axe de Recherche portant sur l’apport des méthodes formelles et des systèmes de représentation de la connaissance et du raisonnement pour l’analyse et l’interprétation de données non-structurées et elle anime un groupe de travail en Intelligence Artificielle.

Céline Hudelot est aussi responsable du parcours Systèmes Informatiques de l’option ISIA de 3ème année du cursus Centralien et elle anime la dominante Informatique du nouveau cursus CentraleSupélec ainsi que sa mention Intelligence Artificielle.

L'EXPLICABILITÉ, LA CLÉ POUR LE DÉPLOIEMENT D'IAS DANS L'ENTREPRISE ⎮ CLODERIC MARS

Rendre les IAs explicables, tout le monde en parle mais au delà du slogan qu’est-ce que ca change dans leur conception et dans leur utilisation ? Fort de son expérience dans déploiement en production d’IAs explicable chez craft ai Clodéric Mars présentera un aperçu des techniques et des usages avec un message : l’explicabilité est une opportunité pour concevoir et déployer des IAs qui ont un vrai impact !

Clodéric Mars est le CTO de craft ai, une API d’IA explicable spécialisée dans la prédiction des comportements de flux de donnés structurés. Depuis plus de 10 ans, il poursuit un objectif : permettre aux non-spécialistes de créer et de collaborer avec des Intelligences Artificielles. À l’INRIA puis chez Golaem et MASA Group il a travaillé sur des techniques d’IA explicite appliquées aux domaines du jeu vidéo, de la simulation et des effets spéciaux. Clodéric a contribué au développement d’IAs utilisées, par exemple, pour la création des figurants virtuels de la série « Game Of Thrones », ou pour l’entraînement des militaires dans plus de 20 pays. En 2015, il participe à la création de craft ai pour rendre le Machine Learning explicable et performant.

Abstract : Rendre les IAs explicables, tout le monde en parle mais au delà du slogan qu’est-ce que ca change dans leur conception et dans leur utilisation ? Fort de son expérience dans déploiement en production d’IAs explicable chez craft ai Clodéric Mars présentera un aperçu des techniques et des usages avec un message : l’explicabilité est une opportunité pour concevoir et déployer des IAs qui ont un vrai impact !

LES LIMITES DES ALGORITHMES DE DEEP LEARNING DANS LE DOMAINE DE L'IMAGERIE MÉDICALE ⎮ISSAM IBNOUHSEIN

La notion de « transparence des algorithmes » a récemment pris une grande importance à la fois dans le débat public et dans le débat scientifique. Partant de la prolifération des emplois du terme « transparence » nous distinguons deux familles d’usages fondamentaux du concept : une famille descriptive portant sur des propriétés épistémiques intrinsèques des programmes, au premier rang desquels l’intelligibilité et l’explicabilité, et une famille prescriptive portant sur des propriétés normatives de leurs usages, au premier rang desquels la loyauté et l’équité. Afin de mieux cerner les enjeux de l’intelligibilité dans l’emploi public des algorithmes, nous introduisons dans un deuxième temps une distinction entre intelligibilité de la procédure et intelligibilité des sorties. Dans un dernier temps, nous appliquons cette distinction au cas particulier de l’apprentissage machine.

Issam Ibnouhsein est docteur en physique théorique, et senior manager chez Quantmetry, société spécialisée en intelligence artificielle basée à Paris. Il est responsable de l’offre banque-finance-assurance, ainsi que de l’animation de la R&D. Ses principales missions consistent en le développement de modèles d’IA pour le compte de ses clients, la mise en place d’architectures big data adaptées à leurs cas d’usages, ainsi que répondre à leurs problématiques de gouvernance data.

IA & CRÉATIVITÉ (TABLE RONDE 1) ⎮ SERGE TISSERON

Serge Tisseron est psychiatre, membre de l’Académie des technologies docteur en psychologie, chercheur associé à l’Université Paris VII Denis Diderot.

 Il a réalisé sa thèse de médecine en 1975 sous la forme d’une bande dessinée et découvert le secret familial de Hergé uniquement à partir de la lecture des albums de Tintin.

Depuis, il a publié une quarantaine d’essais personnels, et fondé en 2013 l’Institut pour l’étude des relations homme robots (www.ierhr.org), pour comprendre la façon dont nos technologies nous transforment.

Derniers ouvrages : Le Jour où mon robot m’aimera et Petit traité de cyber psychologie. Son site : http://www.sergetisseron

IA & CRÉATIVITÉ (TABLE RONDE 1) ⎮ RAJA CHATILA

Les systèmes d’Intelligence Artificielle sont essentiellement des algorithmes, qu’ils soient conçus pour faire de l’apprentissage statistique ou pour effectuer des calculs traitant des symboles amenant à des résultats interprétés comme étant des décisions du système. L’organisation de ces algorithmes dans un système cohérent est effectuée par les concepteurs humains pour réaliser une tâche donnée, atteindre un objectif fixé. Nous argumenterons que de tels systèmes ne peuvent, par essence, éprouver des émotions ni manifester de l’empathie. Ils ne peuvent pas non plus créer ni être dotés de conscience, au sens que nous donnons à ces concepts en parlant des êtres humains.

Raja Chatila est professeur de robotique, d’intelligence artificielle et d’éthique à Sorbonne Université où il dirige le laboratoire d’excellence SMART sur les interactions humain-machine.

Il est ancien directeur de l’Institut des Systèmes Intelligents et de Robotique (ISIR).

Il travaille sur plusieurs problématiques de la robotique autonome et interactive dont la perception, la prise de décision, les architectures décisionnelles et cognitives, l’apprentissage, l’interaction humain-robot et l’éthique des systèmes intelligents. Il est auteur de plus de 160 publications sur ces sujets.

Il est membre de la Commission de réflexion sur l’Ethique de la Recherche sur les Sciences et Technologies du Numérique (CERNA) et président de la “IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”. Il est également membre du groupe d’experts de haut niveau sur l’IA (HLEG-AI) auprès de la Commission européenne.

IA & CRÉATIVITÉ (TABLE RONDE 1) ⎮ ALAIN BENSOUSSAN

Avocat à la Cour d’appel de Paris, précurseur du droit des technologies de l’informatique, de l’internet et aujourd’hui de la robotique, Alain Bensoussan a fait de l’élaboration de concepts juridiques innovants l’une de ses marques de fabrique : preuve probabiliste, domicile virtuel, dignité numérique, personne robot, etc.

En 2012, après avoir créé Lexing ®, premier réseau international qui fédère des avocats en droit du numérique et des technologies avancées, il lance au sein de son cabinet un département sur le droit des technologies robotiques, y voyant « la reconnaissance par le droit d’une mutation technologique au moins aussi importante que l’ont été l’informatique et les réseaux sociaux au 20e siècle ». En 2014,  il fonde et préside l’Association du droit des robots (ADDR) pour appeler à la création d’un cadre juridique propre à la robotique, et coécrit un ouvrage intitulé « IA, Robots et droit » (2e éd. Editions Larcier  juillet 2019).  Il est depuis juin 2019 directeur de publication du magazine Planète Robots

ETHIQUE ET RESPONSABILITÉ (TABLE RONDE 2) ⎮ DELPHINE JAFAAR

Delphine JAAFAR est avocat associé au sein du département SANTE du Cabinet VATIER.

Elle a une pratique reconnue en droit de l’organisation sanitaire et médico-sociale, droit des entreprises et des établissements de santé, droit des professionnels de santé, droit de l’immobilier santé ainsi qu’en matière de e-santé.

Intégrant depuis près de 15 ans la connaissance de l’environnement réglementaire, économique et technologique du secteur de la santé, Delphine JAAFAR intervient aussi bien en conseil, en contentieux et en formation auprès de l’ensemble des opérateurs, publics et privés, du monde sanitaire et médico-social.

Elle est sollicitée dans le cadre de projets et/ou d’opérations complexes consacrant notamment une part importante de son activité à l’accompagnement des établissements dans la restructuration de l’offre de soins.

Delphine JAAFAR a encore su se positionner très tôt dans le domaine particulièrement innovant de la e-santé et proposer ainsi les premières bases de nouvelles architectures contractuelles en la matière.

Son ouverture à l’international constituant un des fondamentaux de son activité professionnelle, elle a créé et mis en place un DESK AFRIQUE dédié au droit de la santé sur la base d’un multiple partenariat avec six cabinets implantés respectivement à Abidjan, Bamako, Lomé, Luanda, Niamey et Yaoundé.

Delphine JAAFAR enseigne à l’Ecole des Hautes Etudes en Santé Publique (EHESP) et au sein du Master II Droit Sanitaire et Social (Paris II Panthéon-Assas) dirigé par Monsieur Michel BORGETTO

ETHIQUE ET RESPONSABILITÉ (TABLE RONDE 2) ⎮ DAVID GRUSON

Ancien élève de l’Ecole nationale d’administration et de l’Ecole des hautes études en santé publique, David GRUSON, 39 ans, est Directeur du Programme Santé du Groupe Jouve, spécialisé sur la transformation digitale. Il a exercé plusieurs postes à responsabilités dans les domaines des politiques publiques et de la santé. Il a, en particulier, été conseiller du Premier ministre chargé de la santé et de l’autonomie et directeur général du Centre hospitalier universitaire de La Réunion.

D’un point de vue académique, il s’est spécialisé, depuis son doctorat en droit de la santé et son DEA de technologies de l’information et de la communication, sur les enjeux de la transformation numérique de notre système de soins. Il est membre du conseil exécutif de la Chaire santé de l’Institut d’étude politiques de Paris et Professeur associé à la faculté de médecine Paris-Descartes. Il a fondé Ethik-IA qui vise au déploiement d’une régulation positive de l’intelligence artificielle et de la robotisation en santé. Il a co-piloté le groupe de travail diligenté sur ces questions par le Comité consultatif national d’éthique dans le contexte de la préparation de la révision de la loi de bioéthique.

Il est l’auteur de S.A.R.R.A. une intelligence artificielle, premier polar bioéthique sur l’IA en santé paru en juin 2018 aux Editions Beta Publisher et de La Machine, le Médecin et Moi,ouvrage de synthèse sur le développement de l’IA en santé paru en novembre 2018 aux Editions de l’Observatoire et co-auteur de La Révolution du pilotage des données de santé paru en mai 2019 aux Editions hospitalières.

ETHIQUE ET RESPONSABILITÉ (TABLE RONDE 2) ⎮ DR JACQUES LUCAS

Au Conseil national de l’Ordre des médecins, le Docteur Jacques LUCAS a assuré successivement les fonctions de Président de la section de l’exercice professionnel puis de Secrétaire général de l’institution.

Il est depuis juin 2007, Vice président du Conseil national, Délégué général au numérique. Dans cette dernière fonction, il a été l’auteur de nombreux rapports du CNOM portant sur la déontologie médicale et en particulier de huit Livres Blancs dans le domaine des TIC en santé : Informatisation de la santé (2008), Télémédecine (2009), Dématérialisation des documents médicaux (2010),Déontologie médicale sur le web (2011), Vadémécum télémédecine (2014), Santé connectée (2015), Information, Communication, Réputation numérique, Publicité(2016), le médecin et le patient dans le monde des data, des algorithmes et de l’intelligence artificielle (2018), un MOOC est en préparation en 2018 sur l’exercice professionnel et la déontologie médicale.