L’IA : un buzzword du moment, ou une avancée majeure pour le futur ?


Séminaire le Jeudi 15 novembre 2018

à l’École Polytechnique, Amphithéâtre Becquerel


Actes du séminaire

Vidéo du matin

Vidéo de l'après-midi



Introduction

Depuis quelques temps, l’intelligence artificielle devient pour beaucoup la solution magique à tous les problèmes.
Est-ce raisonnable ? Est-ce un effet de mode ? Est-ce une réalité ? Que penser de cette percée de l’IA dans notre quotidien ?

C’est pour tenter de faire la part des choses dans ce contexte que l’Association Aristote a décidé de proposer une journée dédiée à ce thème.

Laurence Devillers, chercheuse à Limsi, donne une définition claire de l’IA : « ensemble de théories, d’algorithmes et de logiciels, qui ont pour objectif de simuler des capacités cognitives de l’homme »

Cette technologie informatique n’est pas nouvelle. Elle a été introduite dès 1955 par deux Docteurs en mathématiques et en sciences, John McCarthy et Marvin.

On segmente l’IA en deux catégories : l’IA forte et l’IA faible.

La première répond à des capacités cognitives égales ou supérieures à l’être humain, à une conscience de soi et à la possibilité d’éprouver des sentiments. On est bien loin d’atteindre ce stade à ce jour. L’objectif de la journée sera plutôt focalisé vers un futur plus proche, celui de l’IA faible. Elle vise à reproduire un comportement observé par un programme informatique. Elle n’est pas en mesure de produire toute seule de la connaissance.

L’intelligence artificielle est d’ores et déjà présente dans notre quotidien depuis de nombreuses années. L’IA dépend de 4 éléments que sont : l’homme, la technologie, les algorithmes, la data.

Si nous arrivons à des résultats probants aujourd’hui, c’est grâce aux travaux effectués ces dernières dizaines d’années. En effet, la puissance de calcul des calculateurs, les algorithmes, la génération des données récoltées sont suffisamment avancés pour que les résultats soient au RdV.


La journée débutera par une keynote d’un expert de l’IA. Elle se poursuivra par des exposés et/ou tables rondes sur les différents thèmes suivants :

• État de l'art et limites (Deep Learning, machine learning, systèmes experts, ….)

• Cas particuliers du Deep Learning

• Architectures & implémentation, tant hardware que software

• Data : droits d'usage, qualité de données, traitement des données

• Impact environnemental, consommation énergétique

• Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …

• Besoin de formation


La Conclusion de la journée abordera les doutes, les craintes, les risques mais aussi les opportunités à savoir saisir. Le lien de cette technologie à l’humain sera au centre des discussions pour que l’IA soit au service de l’homme et non l’inverse.



Coordination scientifique :

* Bernard Monnier (MIM)
* Christophe Denis (EDFlab)
* Mickaël Campion (DSI Group)




Partenaire :



Téléchargez l'affiche du séminaire

...et le programme

Vidéo du matin et Vidéo de l'après-midi



Programme

08h45-09h10 Accueil & café
09h10-09h20 Introduction de la journée Bernard Monnier MIM
Christophe Denis EDF Lab
Mikael Campion DSI Group
Judith Nicogossian Antropologue
09h20-10h00 Keynote d'introduction de la journée IA Laurence Devillers Professeure en informatique appliquée aux sciences sociales, Université Paris-Sorbonne 4
10h00-10h30 FastText : une bibliothèque pour intégrer et classer du texte et d'autres informations discrètes Armand Joulin Facebook
10h30-11h00 IA hybride, comment implémenter l’IA dans les projets Thierry Caminel ATOS
11h00-11h20 Pause café
11h20-11h50 IA, besoin, explicabilité, projets européens David Sadek Thales
11h50-12h10 Cas particuliers du Deep Learning Alice Froidevaux Quantcube Technology
12h10-12h30 Cas particuliers du Deep Learning Thierry Berthier Maitre de Conférences en Mathématique, chercheur en cybersécurité
12h30-13h00 Architectures & implémentation, tant hardware que software Frédéric Blanc Kalray
13h00-14h00 Déjeuner buffet au salon d'Honneur
14h00-14h45 Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … Christophe Denis, EDF Table ronde sur les aspects théoriques et besoins
Agnes Delaborde, LNE
Bruno Teboul, AI & Blockchain du groupe GFi
14h45-15h00 Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … Raphaël Canyasse, CEO Anamnese Solution de startups confronté à ce problème d'explicabilité
Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … Clodéric Mars, Craft.ai
15h00-15h25 Data : droits d'usage, qualité des données, traitement des données Dr Christophe Richard Santeos (Atos Worldline) - Syntec Numérique
15h25-15h50 Le point de vue juridique Me Julia Petrelluzzi Doctorante en Droit et intelligence artificielle
Me Nathalie Puigserver P3B Avocats
15h50-16h10Pause café
16h10-16h30 Impact environnemental, consommation énergétique Alice Mizrahi Chercheuse, unité mixte CNRS-Thales
16h30-16h40 Initiative Green IA Mounir Haddad DSI group/IMT Atlantique
Mikael Campion DSI Group
Christophe DenisEDF Lab - ENS Paris-Saclay - Sorbonne Université
Bernard MonierMIM
16h40-17h00 Présentations des projets à venir H2020 sur le thème de l'IA Frédéric Laurent Ministère de la Recherche
17h00-17h30 Conclusion David Ros Maire d'Orsay, Vice-Président du Conseil Général de l'Essonne et Vice-Président de la Communauté d'Agglomérations Paris Saclay


Résumés des présentations


Les émotions et l'éthique dans l’IA Laurence Devillers, Professeure en Informatique à Sorbonne-Université et chercheur au LIMSI-CNRS, équipe “Dimensions affectives et sociales dans les interactions parlées”

La conversation pendant des interactions sociales implique naturellement l'échange de contenu linguistique, mais aussi et peut-être de façon plus importante l'expression de relations interpersonnelles, aussi bien que d’expressions d'émotion, d'affect, d'intérêt, etc.

Dans un avenir proche, la détection des émotions sera utilisée dans les systèmes de marketing, ou de santé. La robotique sociale et affective d'assistance sera déployée pour certains aspects du soin, en automatisant la surveillance, l'entraînement, la motivation et l’aspect compagnon des robots pour les personnes âgées, les enfants ou les personnes handicapées.

La projection affective sur ces objets qui vont communiquer avec nous grâce à la parole sera forte d'autant plus si on brouille les frontières entre vivant et artificiel. La manipulation douce, “le nudging”, sera aussi très efficace.

Il est nécessaire de développer des systèmes conversationnels (robots/chatbots) éthiques by design, combinant développement technologique de haut niveau et réflexions éthiques, pour assurer l'harmonie et l'acceptabilité de leurs relations avec les êtres humains.

Laurence Devillers développe le projet “Bad Nudge Bad Robot” au sein de l'institut de convergence DATAIA à Saclay, et participe au déploiement de la plateforme TransAlgo, transparence et explicabilité des algorithmes..

Laurence Devillers est Professeur d’informatique à Sorbonne Université et chercheur au LIMSI-CNRS sur les “Dimensions affectives et sociales dans les interactions parlées”.
Elle est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA) d’Allistène et est impliquée dans “The IEEE Global Initiative for Ethical Considerations in the Design of Autonomous Systems” depuis 2016.

Auteure de plus de 150 publications, elle a égalementécrit le livre « Des robots et des hommes : mythes, fantasmes et réalité », (Plon, 2017) pour alerter sur l'urgence de recherches pluridisciplinaires et de considérations éthiques pour la conception des (ro)bots conversationnels.


Laurence Devillers


Impact environnemental, consommation énergétique Alice Mizrahi, Chercheuse, unité mixte CNRS-Thales

Les avancées récentes en intelligence artificielle présentent un fort coût énergétique, ce qui pose problème aussi bien pour l’environnement que pour leur intégration dans les objets connectés. Ce coût énergétique est dû au fait que les algorithmes d’IA sont mis en œuvre sur des ordinateurs conventionnels, qui leur sont peu adaptés. Une piste prometteuse est de s’inspirer du cerveau pour développer de nouveaux types d’ordinateurs, moins énergivores. Dans cet exposé j’explore quelques idées clefs, incluant la proximité du calcul et de la mémoire ainsi que la gestion des erreurs et de l’aléatoire.

Alice Mizrahi travaille au sein de l'Unité Mixte de Physique CNRS/Thales, où elle recherche comment utiliser les nanocomposants pour construire des ordinateurs inspirés du cerveau et peu énergivores. Avant de rejoindre Thales, elle a effectué une thèse à l'Université Paris-Sud puis travaillé au National Institute of Standards and Technology aux Etat Unis.

Alice Mizrahi


FastText : une bibliothèque pour intégrer et classer du texte et d'autres informations discrètes Armand Joulin, Facebook

Intervention en anglais

Dans cet exposé, je présenterai une bibliothèque pour la classification et la représentation de texte, appelée fastText.

Cette bibliothèque regroupe plusieurs de nos récents progrès en compréhension de texte. Il permet la formation rapide de modèles pouvant être ultérieurement déployés sur des téléphones mobiles..

Armand is a senior staff research scientist in the Facebook AI Research lab. Prior to this position, he was a postdoctoral fellow at Stanford University working with Fei-Fei Li and Daphne Koller. He did his PhD in INRIA and Ecole Normale Superieure, under the supervision of Francis Bach and Jean Ponce. He did his undergrad at Ecole Polytechnique. His subjects of interest are machine learning, computer vision and natural language processing.

Armand Joulin


Cas particuliers du Deep Learning Alice Froidevaux, Quantcube Technology

QuantCube est une Fintech créé en 2013 qui analyse les données alternatives pour la création d'indicateurs macro-économiques et financiers.
La start-up est notamment spécialisée dans l'analyse de texte, d'images et de séries temporelles utilisant différentes méthodes d'intelligence artificielle.
Lors de cette présentation nous mettrons en avant le potentiel de l’utilisation de données alternatives pour la finance et l'économie et illustrerons nos propos avec des cas d'application en analyse d'images satellites..

Alice Froidevaux, Data Scientist chez QuantCube Technology en charge de la mise en place de modèle de deep learning pour l'analyse d'images satellite.

Alice Froidevaux


Sécurité de l'IA et apport de l'IA à la sécurit Thierry Berthier, Maitre de Conférences en Mathématique, chercheur en cybersécurité

Nous traiterons de l’apport de l'IA dans la détection en amont des cyberattaques.

De l’automatisation de la détection et de la réponse à incidents.

Sécurité de l'IA, attaques “FDIA” sur des composant de Machine Learning, architectures de données fictives immersives.

Thierry Berthier est chercheur et consultant en cybersécurité & cyberdéfense.
Docteur en mathématiques (cryptographie et théorie des nombres), il enseigne la sécurité numérique à l’Université et est chercheur associé au CREC Saint-Cyr.
Membre actif de la Chaire de cyberdéfense Saint-Cyr, de l’Institut Fredrik Bull et de plusieurs think tank français, il codirige le groupe « Sécurité – Intelligence Artificielle » du Hub national France IA qui travaille sur la sécurité de l’intelligence artificielle et les apports de l’IA en cybersécurité.
Ses recherches s’appliquent aux stratégies algorithmiques et à la détection automatique des architectures de données fictives utilisées en phase initiale de cyberattaque.
Co-auteur du livre « From Digital Traces to Algorithmic Projections » publié aux éditions ISTE & Elsevier, il a défini les nouveaux concepts de projection algorithmique d’un individu, de niveau d’ubiquité et de consentement algorithmique.”


Des traces numériques aux projections algorithmiques - "Sécurité-IA" du Hub FranceIA

Thierry Berthier


IA hybride, comment implémenter l’IA dans les projets Thierry Caminel, Atos

Les récents et fantastiques progrès du Deep Learning ne doivent pas nous faire oublier que d’autres classes d’algorithmes existent. L’avenir est sans doute à des formes d’hybridation, en particulier entre des technologies de Machine Learning et celles de l’IA symbolique. Nous aborderons dans cette présentation des tendances et approches pragmatiques pour cette hybridation.

Thierry Caminel est le leader de la communauté des Experts en Intelligence Artificielle d’Atos et membre de la communauté scientifique. Il a occupé diverses responsabilités techniques dans des startups, des PME et finalement à Atos, notamment dans les domaines de l’IA, des systèmes embarqués et de l’Internet des objets.

Thierry Caminel


Architectures & implémentation, tant hardware que software Frédéric Blanc, Kalray

Kalray est une entreprise française qui commercialise des puces manycoeurs.
Elle est le pionnier des processeurs pour les nouveaux systèmes intelligents, notamment dans le domaine de l'embarqué et des voitures autonomes.
La présentation prévue aura deux objectifs principaux : Le premier sera d'offrir une vue d'ensemble de l'architecture du MPPA et de sa roadmap; le second visera à présenter les développements dédiés à l'IA chez Kalray.

Formé au CEA Saclay, Mr Blanc a ensuite participé à la phase d'incubation puis de création de l'entreprise KALRAY. Il a participé à de nombreux développements et il est maintenant en charge de la vision par ordinateur sur les architectures KALRAY au sein de l'équipe “solutions embarquées”. Il a aussi participé activement aux premiers prototypes de CNN sur le MPPA.

Frédéric Blanc


Table ronde : Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … Agnes Delaborde, LNE

Du point de vue de l’évaluateur indépendant, la capacité d’un système à expliquer ses décisions peut permettre :
1) de résoudre la problématique de la boîte noire (selon la criticité de l’application, le concepteur n’est pas toujours dans l’obligation d’ouvrir son code pour inspection),
2) de faciliter la compréhension des systèmes complexes (par exemple réseaux de neurones multi-couches) en vue d’une évaluation et d’une certification, et
3) de mettre au point des protocoles de test pertinents et adaptés (jeux de données de test représentatifs des capacités du système, interprétation des comportements de sortie).

Il est essentiel que les mécanismes d’explicabilité soient fiables et performants, et qu’ils soient élaborés de façon à correspondre tant aux capacités des développeurs qu’aux besoins des entités mises en jeu dans l’inspection et la validation de ces systèmes (pouvoirs publics, juristes, assurances, tiers évaluateurs).

Docteur en informatique de l’Université Paris-Saclay, Agnes Delaborde a rejoint le LNE en 2017 en tant que chercheur afin de développer des méthodes d’évaluation pour la robotique (sociale, industrielle, agricole…) et pour tous systèmes de traitement de données et/ou utilisant de l’Intelligence Artificielle. Ses recherches concernent tant des questions de sécurité des systèmes, que de performance ou d’acceptabilité.

Agnes Delaborde


Table ronde : Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … Bruno Teboul, Groupe GFI

Les succès de l'apprentissage machine automatique, de l'apprentissage profond… liés à l'essor de l'approche connexionniste en IA (vs IA Symbolique) nous conduit au développement, d'applications en IA de plus en plus rapide, robustes et autonomes. Ces systèmes complexes sont capables de traiter une multitude d'informations visuelles, sonores, lexicales, sémantiques et établir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les humains.

Dans ce contexte, les machines sont capables de très rapidement et avec un taux d'erreur très faible de décider et le cas échéant d'agir dans des délais très rapides. Ces dépassements des simples capacités cognitives humaines engendrent la création de machines autonomes, dont le contrôle ne peut être fait qu'à postériori, dans des temps compatibles avec ceux de la lenteur de l'appareillage informatique et/ou cognitif humain.

Ce pose alors le problème du blocage de l'efficacité des systèmes par l'impossibilité que l'homme a de faire confiance à la machine numérique (“black box society”). On connait ce type de situation dans le domaine du véhicule autonome, du nanotrading et plus encore dans celui des SALA (systèmes d'armes létales autonomes).

La seule solution est une forme d'apprentissage collaboratif, partenarial, de l'homme et de la machine, dans laquelle la machine numérique est capable d'expliquer à l'homme le sens de ses décisions et les limites de son autonomie ; ce que ne savent pas faire les systèmes actuels. De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s'expliquer.

“L'explicabilité” du traitement algorithmique et du fonctionnement de l'IA deviennent tout l'enjeu de la confiance, de l'éthique et de la sécurité numérique. Les machines décisionnelles, de contrôle, autonomes, devront alors s'inscrire dans un projet global d'intégration bidirectionnelle hommes-machines, de type XAI (Explainable Artificial Intelligence). )

Diplômé d’une maîtrise de philosophie, d’un DEA de Sciences Cognitives de l’Ecole polytechnique, d’un Executive MBA à HEC-UCLA, d’une Thèse de Doctorat de l’Université Paris-Dauphine. Bruno a passé plus de 20 ans à des postes de direction marketing et digitale de grands groupes et des startups. Cofondateur de la Chaire Data Scientist de l’Ecole Polytechnique (Keyrus, Thales et Orange).
Il fut également le cofondateur et le premier directeur de l’Institut des Hautes Etudes à la Transition Numérique (IHETN) de l’Université de Technologie de Compiègne (UTC), où il est actuellement Chercheur Associé au laboratoire Costech (Complexités, Réseaux et Innovation).
Chez Gfi Informatique, il est charge depuis le mois de juin 2018, de définir au niveau groupe, la stratégie, les offres et les partenariats relatifs à l'Intelligence Artificielle et la Blockchain. Global Practice Director, Artificial Intelligence & Blockchain du groupe GFI.


Bruno Teboul


Table ronde : Solutions de startups confronté à ce problème d'explicabilité Clodéric Mars, craft.ai

Clodéric Mars est le CTO de craft ai, une API d’automatisation cognitive mettant en oeuvre de l’IA explicable. Depuis plus de 10 ans, Il poursuit un objectif : permettre aux non-spécialistes de créer et de collaborer avec des Intelligences Artificielles. À l’INRIA puis chez Golaem et MASA Group il a travaillé sur des techniques d’IA explicite appliquées aux domaines du jeu vidéo, de la simulation et des effets spéciaux. En 2015, il participe à la création de craft ai et se concentre alors sur rendre le « Machine Learning » explicable et performant..

Clodéric Mars


Table ronde : Solutions de startups confronté à ce problème d'explicabilité Raphaël Canyasse, CEO Anamnese

L'idée d'Anamnèse est de poser des questions d'ordre médical à un patient comme le ferait un médecin. Le problème que l'on chercher à résoudre est le suivant : Quelle est la bonne question (suivante) à poser à un patient ? Je vais parler de système expert et de base de connaissance mais surtout de comment valider les règles du système, les connaissances de la base et comment les exploiter.

Ingénieur de l'X et diplômé du Technion, aujourd'hui CTO chez Anamnèse je m'attache à créer des algorithmes et à agréger de la connaissance pour améliorer la santé de tous.

Raphaël Canyasse


Data : droits d'usage, qualité des données, traitement des données Dr Christophe Richard, Santeos (Atos Worldline) - Syntec Numérique

Directeur Médical chez Santeos/Atos, Directeur pédagogique à Centrale SupelecExed, Référent du Groupe de travail Données et Intelligence Artificielle en Santé au Syntec Numérique.

Dr Christophe Richard


Le point de vue juridique Me Julia Petrelluzzi, Doctorante en Droit et intelligence artificielle

Julia Petrelluzzi est diplômée de deux Masters II en Droit à Paris I, et à l'UVSQ/ Paris-Saclay où elle poursuit une thèse sur l’intelligence artificielle et le Droit. Elle est co-auteur de l’ouvrage « L'intelligence artificielle : ses enjeux en droit civil européen », et est également membre de plusieurs initiatives et associations qui militent pour le développement d'une éthique de l’intelligence artificielle.

Me Julia Petrelluzzi


Le point de vue juridique Me Nathalie Puigserver, P3B Avocats

L’IA pose de multiples défis aux juristes dont les issues sont déterminantes en termes de performances et de croissance durable de l’innovation.
Comment encadrer efficacement l’IA, sans pour autant freiner l’innovation ?
Faut-il un nouveau cadre juridique spécifique à l’IA ou des adaptations à nos règles juridiques actuelles ?

Prenons l’exemple de la data, composante essentielle de l’IA, « matière première » disponible massivement (Big data) et source importante de valorisation, dont les enjeux vont bien au-delà des données à caractère personnel qui représentent une partie seulement de la donnée utilisée.
Quel cadre juridique de la donnée devons-nous adopter dans ce contexte ?
Faut-il les libérer pour favoriser le développement de l’IA, les encadrer pour préserver le respect de la vie privée ?
Ou bien est-il possible de faire les deux en même temps ?.

Me Nathalie Puigserver


Présentations des projets à venir H2020 sur le thème de l'IA Frédéric Laurent, Ministère de la Recherche

Nous présenterons les différentes opportunités de financement de travaux de RDI sur l’IA par l’Union européenne.

Ingénieur, en charge des questions européennes et en particulier des questions TIC au Ministère de la recherche depuis 8 ans.

Frédéric Laurent


Speakers, Chairs, Committee members

Bernard Monnier Christophe Denis Mikaël Campion
Laurence Devillers Raphaël Canyasse Alice Froidevaux
Julia Petrelluzzi Armand Joulin Nathalie Puigserver
Christophe Richard Agnes Delaborde Alice Mizrahi
Thierry Caminel  David Sadek Thierry Berthier
Bruno Teboul Frédéric Laurent  Judith Nicogossian
David Ros Clodéric Mars Frédéric Blanc
xai.txt · Dernière modification: 2018/11/24 11:02 par katia_castor
CC Attribution-Noncommercial-Share Alike 3.0 Unported
www.chimeric.de Creative Commons License Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0