L’IA EST-ELLE EXPLICABLE ? UN COUP D’ŒIL FURTIF DANS LA BOÎTE NOIRE DES ALGORITHMES DE L’IA.
Depuis 2010, l’Intelligence Artificielle basée sur des techniques d’apprentissage machine a produit des résultats impressionnants, principalement dans les domaines de la reconnaissance des formes et du traitement du langage naturel.
L’avantage opérationnel de l’utilisation des méthodes d’apprentissage automatique est reconnu, mais est entravé par le manque de compréhension de leurs mécanismes, à l’origine des problèmes opérationnels, juridiques et éthiques. Cela affecte grandement l’acceptabilité des outils d’intelligence artificielle, qui dépend en grande partie de la capacité des ingénieurs, des décideurs et des utilisateurs à en comprendre le sens et les propriétés des résultats.
En outre, la délégation croissante de prise de décision offerte par les outils d’intelligence artificielle rivalise avec les règles de gestion éprouvées des systèmes experts certifiés. Sans recherche d’explicabilité, l’apprentissage automatique peut donc être considéré comme un colosse aux pieds d’argile.
Le séminaire Aristote du 15 décembre 2018 « L’IA : un buzzword du moment, ou une avancée majeure pour le futur ? » a abordé la thématique de l’explicabilité. Ce prochain séminaire du 17 octobre 2019 sera consacré entièrement à la thématique essentielle de l’acceptabilité de l’IA. Il détaille d’un point de vue scientifique les enjeux de l’explicabilité de l’apprentissage machine et ses implications dans les domaines de la santé et de la justice.
COORDINATION SCIENTIFIQUE
Christophe DENIS (LIP6/Sorbonne Université), | Jean LATIERE | Julia PETRELLUZZI (Doctorante en Droit et intelligence artificielle) |
DATE & LIEU
17 octobre 2019
9h00 - 18h00
École Polytechnique
91120 Palaiseau
SITUATION
Organisateurs et partenaires
PROGRAMME
08h30 – 09h00
Accueil & café
09h00 – 09h15
Introduction de la journée
Christophe Calvin
ARISTOTE
09h15 – 09h45
L’IA va-t-elle modifier la notion d’explication ?
Alexei GRINBAUM
CEA IRFU
09h45 – 10h15
Franck VARENNE
Christophe DENIS
Université de Rouen
Sorbonne Université
10h15 – 10h30
Pause café
10h30 – 11h00
Explicabilité et éthique d’applications IA dans le domaine médical
Christophe DENIS
Judith NICOGOSSIAN
Sorbonne Université
Anthropologue
11h10 – 11h30
Jean-Daniel ZUCKER
IRD
11h30 – 12h00
Céline HUDELOT
Centrale Supelec
12h00 – 12h30
Cloderic MARS
Craft-ai
12h30 – 14h00
Déjeuner buffet
14h00 – 14h30
Les limites des algorithmes de Deep Learning dans le domaine de l’imagerie médicale
Issam IBNOUHSEIN
Quantmetry
14h30 – 15h30
Les interactions de l’Intelligence artificielle avec son environnement, ses implications sociales et juridiques
Serge TISSERON
Raja CHATILA
Alain BENSOUSSAN
Académie des Technologies
Sorbonne Université
Cabinet Lexing Alain Bensoussan
L’empathie à l’ère des machines parlantes
Serge TISSERON
Académie des Technologies
Sorbonne Université
15h30 – 15h45
15h45 – 16h50
Intelligence artificielle et santé : quelle éthique dans son usage et quel partage des responsabilités
Delphine JAFAAR
David GRUSON
Dr Jacques LUCAS
Cabinet Jaafar
Groupe Jouve
Conseil National de l’Ordre des Médecins
Delphine JAFAAR
Cabinet Jaafar
Dr Jacques LUCAS
Conseil National de l’Ordre des Médecins
16h50 – 17h20
L’IA sera-t-elle capable de faire des « expériences de pensée » ?
Etienne KLEIN
CEA
17h20 – 17h35
Résumé de la présentation
ACTE DU SÉMINAIRE :
L'IA VA-T-ELLE MODIFIER LA NOTION D'EXPLICATION ? ⎮ ALEXEI GRINBAUM
Alexei Grinbaum est philosophe et physicien. Chercheur au laboratoire Larsim du CEA-Saclay, il est spécialiste de l’information quantique. Depuis 2003, il s’intéresse aux questions éthiques liées aux nouvelles technologies, notamment aux nanotechnologies, à l’intelligence artificielle et à la robotique. Il est membre de la CERNA, commission d’éthique pour la recherche en numérique. Son dernier ouvrage est “Les robots et le mal” (Desclée de Brouwer, 2019).
PROBLÉMATIQUES D'EXPLICABILITÉ, DE RESPONSABILITÉ ET DE CONVIVIALITÉ EN IA : QUELQUES PISTES ⎮ FRANCK VARENNE
Dans cet exposé, je présenterai cette partie du travail engagé avec Christophe Denis (Denis, Varenne, 2019) dans laquelle je recours à l’épistémologie comparative des fonctions de connaissance des modèles scientifiques (Varenne 2018). Cette épistémologie se révèle utile pour aborder, plus finement que certaines autres approches, les problèmes spécifiques à l’apprentissage machine (AM), en particulier le déficit d’explicabilité. Même si l’on considère parfois que les méthodes à AM ne sont pas des approches par modèles dans leur processus même, de fait, elles aboutissent, in fine, à produire d’authentiques modèles de décision ou de prédiction. À lumière de l’épistémologie des modèles, je propose de montrer en quoi le déficit d’explicabilité des modèles prédictifs à base d’AM tient – comme on le dit souvent et à juste raison – à l’absence de représentation d’une causalité. Je commencerai en montrant que les distinctions et liens entre interprétation, explication et compréhension doivent d’abord être clarifiés. Ensuite, je montrerai que les modèles à base d’AM s’apparentent aux modèles prédictifs classiques fondés sur l’analyse des données considérées comme des signaux plutôt que comme des signes, mais que certains s’en distinguent (comme les techniques de deep learning) en ce que le pari « métaphysique » sur lequel leur réussite se fonde est loin d’être aussi clair. Je soulignerai enfin les différences entre explication par le modèle, explication du modèle et explication ex post du comportement du modèle à quoi on réduit souvent les recherches en « explainable AI » (Mittelstadt et al. 2019). Cette dernière distinction permet de comprendre pourquoi le fait de détenir un modèle expliquant un modèle à AM, c’est-à-dire un modèle explicatif approché de second degré, expliquant partiellement, de manière locale ou ad hoc le comportement d’un modèle à AM, ne peut pas nous assurer d’une complète confiance en ce modèle.
Références : Denis, C., Varenne, F., « Interprétabilité et explicabilité pour l’apprentissage machine : entre modèles descriptifs, modèles prédictifs et modèles causaux. Une nécessaire clarification épistémologique », Conférence Nationale en Intelligence Artificielle 2019, Actes de la CNIA@PFIA 2019, J. Lang (dir.), Toulouse, pp. 60-69, https://hal.sorbonne-universite.fr/hal-02184519. Actes de la CNIA@PFIA 2019 : https://www.irit.fr/pfia2019/wp-content/uploads/2019/07/actes_CNIA_PFIA2019.pdf
Franck Varenne, maître de conférences HDR à l’Université de Rouen, chercheur rattaché à l’ERIAC (EA 4705) et associé à l’IHPST (UMR 8590), travaille en philosophie des mathématiques appliquées, de l’algorithmique et de l’informatique.
Menées sur un vaste corpus, ses recherches ont d’abord confirmé et précisé la diversité des fonctions de connaissance des modèles et des simulations comme de leurs modes d’articulation : description, explication, prédiction, décision, co-calcul, etc. Il a plus particulièrement analysé les modes récents de construction et d’accréditation des simulations informatiques intégratives (i.e. multi-processus ou multi-échelles) en sciences du vivant et des modèles computationnels complexes (à base d’agents) en sciences sociales. Faisant l’hypothèse que la philosophie des sciences – sous la forme d’une épistémologie comparative et analytique des modèles scientifiques – peut, en retour, être utile en épistémologie et éthique de l’IA, il travaille aujourd’hui à la constitution, en collaboration avec Christophe Denis (LIP6, ACASA), d’un crible d’analyse conceptuelle qui soit applicable dans les problématiques d’explicabilité en IA et apprentissage machine.
APPRENTISSAGE ARTIFICIEL ET INTERPRÉTABILITÉ POUR LA MÉDECINE DE PRÉCISION (TBC) ⎮ JEAN-DANIEL ZUCKER
Ingénieur en aéronautique de formation, Jean-Daniel Zucker a suivi un Master en Intelligence artificielle (IA) pour les sciences de la vie en 1986 qui l’a conduit à travailler pendant trois ans aux États-Unis comme ingénieur puis vice-président R&D d’une startup du New England Medical Center (Boston, USA). Après un second Master en Intelligence artificielle à l’université Paris 6 en 1992 il a obtenu son doctorat (Paris, 6) en Apprentissage automatique en 1996 puis est devenu Maitre de Conférences la même année. Nommé Professeur des Universités en Intelligence artificielle à l’université Paris 13 en 2002.
Il a cofondé le laboratoire LIM&BIO d’informatique médicale et bio-informatique de l’université Paris 13. En 2007, il est devenu Directeur de Recherche à l’IRD : Institut de Recherche pour le Développement.
Il est depuis 5 ans le directeur du laboratoire UMMISCO de recherche en modélisation mathématique et informatique des systèmes complexes dont l’IRD, Sorbonne Université et l’UCA notamment sont co-tutelles. En outre il dirige l’équipe INTEGROMICS de l’Institut hospitalo-universitaire (IHU) sur les maladies cardiométaboliques et la nutrition (ICAN).
Ses recherches se situent en IA et Machine Learning – elles concernent la modélisation des systèmes complexes et l’analyse prédictive en haute dimension appliquée à la santé et en particulier aux maladies cardiométaboliques. Il est l’auteur de plus de deux cent cinquante articles de revues ou de conférences. Il a donné des cours d’intelligence artificielle et de Data Mining dans plusieurs universités en France (Sorbonne Université, UP13) et à l’étranger (USTH, Vietnam). Il a dirigé 24 doctorants dont 20 ont déjà soutenu et a été pendant dix ans le directeur du Programme Doctoral International Modélisation des Systèmes Complexes (PDI MSC) de SU et de l’IRD. Il est par ailleurs le co-auteur de l’ouvrage « Abstraction in Artificial Intelligence and Complex Systems » paru en 2013.
SYSTÈMES D'IA POUR L'INTERPRÉTATION D'IMAGES MÉDICALES : UNE PREMIÈRE ÉTAPE VERS L'EXPLICABILITÉ ? ⎮ CÉLINE HUDELOT
Dans cette présentation, nous introduisons la problématique de l’interprétation d’images médicales et de l’explicabilité des approches proposées au travers de quelques exemples de la littérature. Nous présentons ensuite une approche permettant d’apprendre les relations d’importance ou pertinentes pour un domaine donné et de les utiliser ensuite pour catégoriser les organes avec une explication de la catégorisation.
Celine Hudelot est Professeur des Universités au laboratoire de Mathématiques et Informatique pour la Complexité des Systèmes (MICS) de CentraleSupélec. Elle est docteur en Informatique de l’Université de Nice Sophia Antipolis (diplôme obtenu en 2005).
Les travaux de Recherche de Céline Hudelot s’inscrivent dans le domaine de l’intelligence artificielle et ils se situent plus particulièrement à la frontière des domaines de la représentation des connaissances et du raisonnement, de l’analyse et de l’interprétation de données multimédia, de la fouille de données et de l’apprentissage de représentations. Plus généralement, ses travaux concernent la problématique de l’interprétabilité et de l’explicabilité des systèmes d’IA.
Elle est en charge dans le laboratoire MICS d’un axe de Recherche portant sur l’apport des méthodes formelles et des systèmes de représentation de la connaissance et du raisonnement pour l’analyse et l’interprétation de données non-structurées et elle anime un groupe de travail en Intelligence Artificielle.
Céline Hudelot est aussi responsable du parcours Systèmes Informatiques de l’option ISIA de 3ème année du cursus Centralien et elle anime la dominante Informatique du nouveau cursus CentraleSupélec ainsi que sa mention Intelligence Artificielle.
L'EXPLICABILITÉ, LA CLÉ POUR LE DÉPLOIEMENT D'IAS DANS L'ENTREPRISE ⎮ CLODERIC MARS
Rendre les IAs explicables, tout le monde en parle mais au delà du slogan qu’est-ce que ca change dans leur conception et dans leur utilisation ? Fort de son expérience dans déploiement en production d’IAs explicable chez craft ai Clodéric Mars présentera un aperçu des techniques et des usages avec un message : l’explicabilité est une opportunité pour concevoir et déployer des IAs qui ont un vrai impact !
Clodéric Mars est le CTO de craft ai, une API d’IA explicable spécialisée dans la prédiction des comportements de flux de donnés structurés. Depuis plus de 10 ans, il poursuit un objectif : permettre aux non-spécialistes de créer et de collaborer avec des Intelligences Artificielles. À l’INRIA puis chez Golaem et MASA Group il a travaillé sur des techniques d’IA explicite appliquées aux domaines du jeu vidéo, de la simulation et des effets spéciaux. Clodéric a contribué au développement d’IAs utilisées, par exemple, pour la création des figurants virtuels de la série « Game Of Thrones », ou pour l’entraînement des militaires dans plus de 20 pays. En 2015, il participe à la création de craft ai pour rendre le Machine Learning explicable et performant.
Abstract : Rendre les IAs explicables, tout le monde en parle mais au delà du slogan qu’est-ce que ca change dans leur conception et dans leur utilisation ? Fort de son expérience dans déploiement en production d’IAs explicable chez craft ai Clodéric Mars présentera un aperçu des techniques et des usages avec un message : l’explicabilité est une opportunité pour concevoir et déployer des IAs qui ont un vrai impact !
LES LIMITES DES ALGORITHMES DE DEEP LEARNING DANS LE DOMAINE DE L'IMAGERIE MÉDICALE ⎮ISSAM IBNOUHSEIN
La notion de « transparence des algorithmes » a récemment pris une grande importance à la fois dans le débat public et dans le débat scientifique. Partant de la prolifération des emplois du terme « transparence » nous distinguons deux familles d’usages fondamentaux du concept : une famille descriptive portant sur des propriétés épistémiques intrinsèques des programmes, au premier rang desquels l’intelligibilité et l’explicabilité, et une famille prescriptive portant sur des propriétés normatives de leurs usages, au premier rang desquels la loyauté et l’équité. Afin de mieux cerner les enjeux de l’intelligibilité dans l’emploi public des algorithmes, nous introduisons dans un deuxième temps une distinction entre intelligibilité de la procédure et intelligibilité des sorties. Dans un dernier temps, nous appliquons cette distinction au cas particulier de l’apprentissage machine.
Issam Ibnouhsein est docteur en physique théorique, et senior manager chez Quantmetry, société spécialisée en intelligence artificielle basée à Paris. Il est responsable de l’offre banque-finance-assurance, ainsi que de l’animation de la R&D. Ses principales missions consistent en le développement de modèles d’IA pour le compte de ses clients, la mise en place d’architectures big data adaptées à leurs cas d’usages, ainsi que répondre à leurs problématiques de gouvernance data.
IA & CRÉATIVITÉ (TABLE RONDE 1) ⎮ SERGE TISSERON
Serge Tisseron est psychiatre, membre de l’Académie des technologies docteur en psychologie, chercheur associé à l’Université Paris VII Denis Diderot.
Il a réalisé sa thèse de médecine en 1975 sous la forme d’une bande dessinée et découvert le secret familial de Hergé uniquement à partir de la lecture des albums de Tintin.
Depuis, il a publié une quarantaine d’essais personnels, et fondé en 2013 l’Institut pour l’étude des relations homme robots (www.ierhr.org), pour comprendre la façon dont nos technologies nous transforment.
Derniers ouvrages : Le Jour où mon robot m’aimera et Petit traité de cyber psychologie. Son site : http://www.sergetisseron
IA & CRÉATIVITÉ (TABLE RONDE 1) ⎮ RAJA CHATILA
Les systèmes d’Intelligence Artificielle sont essentiellement des algorithmes, qu’ils soient conçus pour faire de l’apprentissage statistique ou pour effectuer des calculs traitant des symboles amenant à des résultats interprétés comme étant des décisions du système. L’organisation de ces algorithmes dans un système cohérent est effectuée par les concepteurs humains pour réaliser une tâche donnée, atteindre un objectif fixé. Nous argumenterons que de tels systèmes ne peuvent, par essence, éprouver des émotions ni manifester de l’empathie. Ils ne peuvent pas non plus créer ni être dotés de conscience, au sens que nous donnons à ces concepts en parlant des êtres humains.
Raja Chatila est professeur de robotique, d’intelligence artificielle et d’éthique à Sorbonne Université où il dirige le laboratoire d’excellence SMART sur les interactions humain-machine.
Il est ancien directeur de l’Institut des Systèmes Intelligents et de Robotique (ISIR).
Il travaille sur plusieurs problématiques de la robotique autonome et interactive dont la perception, la prise de décision, les architectures décisionnelles et cognitives, l’apprentissage, l’interaction humain-robot et l’éthique des systèmes intelligents. Il est auteur de plus de 160 publications sur ces sujets.
Il est membre de la Commission de réflexion sur l’Ethique de la Recherche sur les Sciences et Technologies du Numérique (CERNA) et président de la “IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”. Il est également membre du groupe d’experts de haut niveau sur l’IA (HLEG-AI) auprès de la Commission européenne.
IA & CRÉATIVITÉ (TABLE RONDE 1) ⎮ ALAIN BENSOUSSAN
Avocat à la Cour d’appel de Paris, précurseur du droit des technologies de l’informatique, de l’internet et aujourd’hui de la robotique, Alain Bensoussan a fait de l’élaboration de concepts juridiques innovants l’une de ses marques de fabrique : preuve probabiliste, domicile virtuel, dignité numérique, personne robot, etc.
En 2012, après avoir créé Lexing ®, premier réseau international qui fédère des avocats en droit du numérique et des technologies avancées, il lance au sein de son cabinet un département sur le droit des technologies robotiques, y voyant « la reconnaissance par le droit d’une mutation technologique au moins aussi importante que l’ont été l’informatique et les réseaux sociaux au 20e siècle ». En 2014, il fonde et préside l’Association du droit des robots (ADDR) pour appeler à la création d’un cadre juridique propre à la robotique, et coécrit un ouvrage intitulé « IA, Robots et droit » (2e éd. Editions Larcier juillet 2019). Il est depuis juin 2019 directeur de publication du magazine Planète Robots.
ETHIQUE ET RESPONSABILITÉ (TABLE RONDE 2) ⎮ DELPHINE JAFAAR
Delphine JAAFAR est avocat associé au sein du département SANTE du Cabinet VATIER.
Elle a une pratique reconnue en droit de l’organisation sanitaire et médico-sociale, droit des entreprises et des établissements de santé, droit des professionnels de santé, droit de l’immobilier santé ainsi qu’en matière de e-santé.
Intégrant depuis près de 15 ans la connaissance de l’environnement réglementaire, économique et technologique du secteur de la santé, Delphine JAAFAR intervient aussi bien en conseil, en contentieux et en formation auprès de l’ensemble des opérateurs, publics et privés, du monde sanitaire et médico-social.
Elle est sollicitée dans le cadre de projets et/ou d’opérations complexes consacrant notamment une part importante de son activité à l’accompagnement des établissements dans la restructuration de l’offre de soins.
Delphine JAAFAR a encore su se positionner très tôt dans le domaine particulièrement innovant de la e-santé et proposer ainsi les premières bases de nouvelles architectures contractuelles en la matière.
Son ouverture à l’international constituant un des fondamentaux de son activité professionnelle, elle a créé et mis en place un DESK AFRIQUE dédié au droit de la santé sur la base d’un multiple partenariat avec six cabinets implantés respectivement à Abidjan, Bamako, Lomé, Luanda, Niamey et Yaoundé.
Delphine JAAFAR enseigne à l’Ecole des Hautes Etudes en Santé Publique (EHESP) et au sein du Master II Droit Sanitaire et Social (Paris II Panthéon-Assas) dirigé par Monsieur Michel BORGETTO
ETHIQUE ET RESPONSABILITÉ (TABLE RONDE 2) ⎮ DAVID GRUSON
Ancien élève de l’Ecole nationale d’administration et de l’Ecole des hautes études en santé publique, David GRUSON, 39 ans, est Directeur du Programme Santé du Groupe Jouve, spécialisé sur la transformation digitale. Il a exercé plusieurs postes à responsabilités dans les domaines des politiques publiques et de la santé. Il a, en particulier, été conseiller du Premier ministre chargé de la santé et de l’autonomie et directeur général du Centre hospitalier universitaire de La Réunion.
D’un point de vue académique, il s’est spécialisé, depuis son doctorat en droit de la santé et son DEA de technologies de l’information et de la communication, sur les enjeux de la transformation numérique de notre système de soins. Il est membre du conseil exécutif de la Chaire santé de l’Institut d’étude politiques de Paris et Professeur associé à la faculté de médecine Paris-Descartes. Il a fondé Ethik-IA qui vise au déploiement d’une régulation positive de l’intelligence artificielle et de la robotisation en santé. Il a co-piloté le groupe de travail diligenté sur ces questions par le Comité consultatif national d’éthique dans le contexte de la préparation de la révision de la loi de bioéthique.
Il est l’auteur de S.A.R.R.A. une intelligence artificielle, premier polar bioéthique sur l’IA en santé paru en juin 2018 aux Editions Beta Publisher et de La Machine, le Médecin et Moi,ouvrage de synthèse sur le développement de l’IA en santé paru en novembre 2018 aux Editions de l’Observatoire et co-auteur de La Révolution du pilotage des données de santé paru en mai 2019 aux Editions hospitalières.
ETHIQUE ET RESPONSABILITÉ (TABLE RONDE 2) ⎮ DR JACQUES LUCAS
Au Conseil national de l’Ordre des médecins, le Docteur Jacques LUCAS a assuré successivement les fonctions de Président de la section de l’exercice professionnel puis de Secrétaire général de l’institution.
Il est depuis juin 2007, Vice président du Conseil national, Délégué général au numérique. Dans cette dernière fonction, il a été l’auteur de nombreux rapports du CNOM portant sur la déontologie médicale et en particulier de huit Livres Blancs dans le domaine des TIC en santé : Informatisation de la santé (2008), Télémédecine (2009), Dématérialisation des documents médicaux (2010),Déontologie médicale sur le web (2011), Vadémécum télémédecine (2014), Santé connectée (2015), Information, Communication, Réputation numérique, Publicité(2016), le médecin et le patient dans le monde des data, des algorithmes et de l’intelligence artificielle (2018), un MOOC est en préparation en 2018 sur l’exercice professionnel et la déontologie médicale.