L’IA : UN BUZZWORD DU MOMENT, OU UNE AVANCÉE MAJEURE POUR LE FUTUR ?
Depuis quelques temps, l’intelligence artificielle devient pour beaucoup la solution magique à tous les problèmes.
Est-ce raisonnable ? Est-ce un effet de mode ? Est-ce une réalité ? Que penser de cette percée de l’IA dans notre quotidien ?
C’est pour tenter de faire la part des choses dans ce contexte que l’Association Aristote a décidé de proposer une journée dédiée à ce thème.
Laurence Devillers, chercheuse à Limsi, donne une définition claire de l’IA : « ensemble de théories, d’algorithmes et de logiciels, qui ont pour objectif de simuler des capacités cognitives de l’homme »
Cette technologie informatique n’est pas nouvelle. Elle a été introduite dès 1955 par deux Docteurs en mathématiques et en sciences, John McCarthy et Marvin.
On segmente l’IA en deux catégories : l’IA forte et l’IA faible.
La première répond à des capacités cognitives égales ou supérieures à l’être humain, à une conscience de soi et à la possibilité d’éprouver des sentiments. On est bien loin d’atteindre ce stade à ce jour. L’objectif de la journée sera plutôt focalisé vers un futur plus proche, celui de l’IA faible. Elle vise à reproduire un comportement observé par un programme informatique. Elle n’est pas en mesure de produire toute seule de la connaissance.
L’intelligence artificielle est d’ores et déjà présente dans notre quotidien depuis de nombreuses années. L’IA dépend de 4 éléments que sont : l’homme, la technologie, les algorithmes, la data.
Si nous arrivons à des résultats probants aujourd’hui, c’est grâce aux travaux effectués ces dernières dizaines d’années. En effet, la puissance de calcul des calculateurs, les algorithmes, la génération des données récoltées sont suffisamment avancés pour que les résultats soient au RdV.
La journée débutera par une keynote d’un expert de l’IA. Elle se poursuivra par des exposés et/ou tables rondes sur les différents thèmes suivants :
• État de l’art et limites (Deep Learning, machine learning, systèmes experts, ….)
• Cas particuliers du Deep Learning
• Architectures & implémentation, tant hardware que software
• Data : droits d’usage, qualité de données, traitement des données
• Impact environnemental, consommation énergétique
• Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
• Besoin de formation
La Conclusion de la journée abordera les doutes, les craintes, les risques mais aussi les opportunités à savoir saisir. Le lien de cette technologie à l’humain sera au centre des discussions pour que l’IA soit au service de l’homme et non l’inverse.
COORDINATION SCIENTIFIQUE
DATE & LIEU
15 novembre 2018
8h45 – 17h30
École Polytechnique
Amphithéâtre Becquerel
91120 Palaiseau
SITUATION
Organisateurs et partenaires
PROGRAMME
Accueil & café
09h10 – 09h20
Introduction de la journée
Bernard Monnier
Christophe Denis
Mikael Campion
Judith Nicogossian
MIM
EDF Lab
DSI Group
Antropologue
Keynote d’introduction de la journée IA
Laurence Devillers
Professeure en informatique appliquée aux sciences sociales, Université Paris-Sorbonne 4
Armand Joulin
Thierry Caminel
ATOS
IA, besoin, explicabilité, projets européens
David Sadek
Thales
Agnes Delaborde, LNE
Solution de startups confronté à ce problème d’explicabilité
Me Julia Petrelluzzi
Me Nathalie Puigserver
Doctorante en Droit et intelligence artificielle
P3B Avocats
Pause café
Alice Mizrahi
Chercheuse, unité mixte CNRS-Thales
Mounir Haddad
Mikael Campion
Christophe Denis
Bernard Monier
DSI group/IMT Atlantique
DSI Group
EDF Lab – ENS Paris-Saclay – Sorbonne Université
MIM
16h40 – 17h00
Présentations des projets à venir H2020 sur le thème de l’IA
Frédéric Laurent
Ministère de la Recherche
17h00 – 17h30
David Ros
Maire d’Orsay, Vice-Président du Conseil Général de l’Essonne et Vice-Président de la Communauté d’Agglomérations Paris Saclay
Résumé de la présentation
ACTE DU SÉMINAIRE :
LES ÉMOTIONS ET L'ÉTHIQUE DANS L’IA | LAURENCE DEVILLERS, PROFESSEURE EN INFORMATIQUE À SORBONNE-UNIVERSITÉ ET CHERCHEUR AU LIMSI-CNRS, ÉQUIPE “DIMENSIONS AFFECTIVES ET SOCIALES DANS LES INTERACTIONS PARLÉES”

Dans un avenir proche, la détection des émotions sera utilisée dans les systèmes de marketing, ou de santé. La robotique sociale et affective d’assistance sera déployée pour certains aspects du soin, en automatisant la surveillance, l’entraînement, la motivation et l’aspect compagnon des robots pour les personnes âgées, les enfants ou les personnes handicapées.
La projection affective sur ces objets qui vont communiquer avec nous grâce à la parole sera forte d’autant plus si on brouille les frontières entre vivant et artificiel. La manipulation douce, “le nudging”, sera aussi très efficace.
Il est nécessaire de développer des systèmes conversationnels (robots/chatbots) éthiques by design, combinant développement technologique de haut niveau et réflexions éthiques, pour assurer l’harmonie et l’acceptabilité de leurs relations avec les êtres humains.
Laurence Devillers développe le projet “Bad Nudge Bad Robot” au sein de l’institut de convergence DATAIA à Saclay, et participe au déploiement de la plateforme TransAlgo, transparence et explicabilité des algorithmes..
Laurence Devillers est Professeur d’informatique à Sorbonne Université et chercheur au LIMSI-CNRS sur les “Dimensions affectives et sociales dans les interactions parlées”.
Elle est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA) d’Allistène et est impliquée dans “The IEEE Global Initiative for Ethical Considerations in the Design of Autonomous Systems” depuis 2016.
Auteure de plus de 150 publications, elle a égalementécrit le livre « Des robots et des hommes : mythes, fantasmes et réalité », (Plon, 2017) pour alerter sur l’urgence de recherches pluridisciplinaires et de considérations éthiques pour la conception des (ro)bots conversationnels.
IMPACT ENVIRONNEMENTAL, CONSOMMATION ÉNERGÉTIQUE | ALICE MIZRAHI, CHERCHEUSE, UNITÉ MIXTE CNRS-THALES

Alice Mizrahi travaille au sein de l’Unité Mixte de Physique CNRS/Thales, où elle recherche comment utiliser les nanocomposants pour construire des ordinateurs inspirés du cerveau et peu énergivores. Avant de rejoindre Thales, elle a effectué une thèse à l’Université Paris-Sud puis travaillé au National Institute of Standards and Technology aux Etat Unis.
FASTTEXT : UNE BIBLIOTHÈQUE POUR INTÉGRER ET CLASSER DU TEXTE ET D'AUTRES INFORMATIONS DISCRÈTES| ARMAND JOULIN, FACEBOOK

Dans cet exposé, je présenterai une bibliothèque pour la classification et la représentation de texte, appelée fastText.
Cette bibliothèque regroupe plusieurs de nos récents progrès en compréhension de texte. Il permet la formation rapide de modèles pouvant être ultérieurement déployés sur des téléphones mobiles..
Armand is a senior staff research scientist in the Facebook AI Research lab. Prior to this position, he was a postdoctoral fellow at Stanford University working with Fei-Fei Li and Daphne Koller. He did his PhD in INRIA and Ecole Normale Superieure, under the supervision of Francis Bach and Jean Ponce. He did his undergrad at Ecole Polytechnique. His subjects of interest are machine learning, computer vision and natural language processing.
CAS PARTICULIERS DU DEEP LEARNING |ALICE FROIDEVAUX, QUANTCUBE TECHNOLOGY

La start-up est notamment spécialisée dans l’analyse de texte, d’images et de séries temporelles utilisant différentes méthodes d’intelligence artificielle.
Lors de cette présentation nous mettrons en avant le potentiel de l’utilisation de données alternatives pour la finance et l’économie et illustrerons nos propos avec des cas d’application en analyse d’images satellites..
Alice Froidevaux, Data Scientist chez QuantCube Technology en charge de la mise en place de modèle de deep learning pour l’analyse d’images satellite.
SÉCURITÉ DE L'IA ET APPORT DE L'IA À LA SÉCURITÉ| THIERRY BERTHIER, MAITRE DE CONFÉRENCES EN MATHÉMATIQUE, CHERCHEUR EN CYBERSÉCURITÉ

De l’automatisation de la détection et de la réponse à incidents.
Sécurité de l’IA, attaques “FDIA” sur des composant de Machine Learning, architectures de données fictives immersives.
Thierry Berthier est chercheur et consultant en cybersécurité & cyberdéfense.
Docteur en mathématiques (cryptographie et théorie des nombres), il enseigne la sécurité numérique à l’Université et est chercheur associé au CREC Saint-Cyr.
Membre actif de la Chaire de cyberdéfense Saint-Cyr, de l’Institut Fredrik Bull et de plusieurs think tank français, il codirige le groupe « Sécurité – Intelligence Artificielle » du Hub national France IA qui travaille sur la sécurité de l’intelligence artificielle et les apports de l’IA en cybersécurité.
Ses recherches s’appliquent aux stratégies algorithmiques et à la détection automatique des architectures de données fictives utilisées en phase initiale de cyberattaque.
Co-auteur du livre « From Digital Traces to Algorithmic Projections » publié aux éditions ISTE & Elsevier, il a défini les nouveaux concepts de projection algorithmique d’un individu, de niveau d’ubiquité et de consentement algorithmique.”
Des traces numériques aux projections algorithmiques – “Sécurité-IA” du Hub FranceIA
IA HYBRIDE, COMMENT IMPLÉMENTER L’IA DANS LES PROJETS| THIERRY CAMINEL, ATOS

Thierry Caminel est le leader de la communauté des Experts en Intelligence Artificielle d’Atos et membre de la communauté scientifique. Il a occupé diverses responsabilités techniques dans des startups, des PME et finalement à Atos, notamment dans les domaines de l’IA, des systèmes embarqués et de l’Internet des objets.
ARCHITECTURES & IMPLÉMENTATION, TANT HARDWARE QUE SOFTWARE | FRÉDÉRIC BLANC, KALRAY

Elle est le pionnier des processeurs pour les nouveaux systèmes intelligents, notamment dans le domaine de l’embarqué et des voitures autonomes.
La présentation prévue aura deux objectifs principaux : Le premier sera d’offrir une vue d’ensemble de l’architecture du MPPA et de sa roadmap; le second visera à présenter les développements dédiés à l’IA chez Kalray.
Formé au CEA Saclay, Mr Blanc a ensuite participé à la phase d’incubation puis de création de l’entreprise KALRAY. Il a participé à de nombreux développements et il est maintenant en charge de la vision par ordinateur sur les architectures KALRAY au sein de l’équipe “solutions embarquées”. Il a aussi participé activement aux premiers prototypes de CNN sur le MPPA.
TABLE RONDE : EXPLICABILITÉ, UTILITÉ SELON LES DOMAINES D’APPLICATION, ARMÉE, JURIDIQUE, SANTÉ, … | AGNES DELABORDE, LNE

1) de résoudre la problématique de la boîte noire (selon la criticité de l’application, le concepteur n’est pas toujours dans l’obligation d’ouvrir son code pour inspection),
2) de faciliter la compréhension des systèmes complexes (par exemple réseaux de neurones multi-couches) en vue d’une évaluation et d’une certification, et
3) de mettre au point des protocoles de test pertinents et adaptés (jeux de données de test représentatifs des capacités du système, interprétation des comportements de sortie).
Il est essentiel que les mécanismes d’explicabilité soient fiables et performants, et qu’ils soient élaborés de façon à correspondre tant aux capacités des développeurs qu’aux besoins des entités mises en jeu dans l’inspection et la validation de ces systèmes (pouvoirs publics, juristes, assurances, tiers évaluateurs).
Docteur en informatique de l’Université Paris-Saclay, Agnes Delaborde a rejoint le LNE en 2017 en tant que chercheur afin de développer des méthodes d’évaluation pour la robotique (sociale, industrielle, agricole…) et pour tous systèmes de traitement de données et/ou utilisant de l’Intelligence Artificielle. Ses recherches concernent tant des questions de sécurité des systèmes, que de performance ou d’acceptabilité.
TABLE RONDE : EXPLICABILITÉ, UTILITÉ SELON LES DOMAINES D’APPLICATION, ARMÉE, JURIDIQUE, SANTÉ, … | BRUNO TEBOUL, GROUPE GFI

Dans ce contexte, les machines sont capables de très rapidement et avec un taux d’erreur très faible de décider et le cas échéant d’agir dans des délais très rapides. Ces dépassements des simples capacités cognitives humaines engendrent la création de machines autonomes, dont le contrôle ne peut être fait qu’à postériori, dans des temps compatibles avec ceux de la lenteur de l’appareillage informatique et/ou cognitif humain.
Ce pose alors le problème du blocage de l’efficacité des systèmes par l’impossibilité que l’homme a de faire confiance à la machine numérique (“black box society”). On connait ce type de situation dans le domaine du véhicule autonome, du nanotrading et plus encore dans celui des SALA (systèmes d’armes létales autonomes).
La seule solution est une forme d’apprentissage collaboratif, partenarial, de l’homme et de la machine, dans laquelle la machine numérique est capable d’expliquer à l’homme le sens de ses décisions et les limites de son autonomie ; ce que ne savent pas faire les systèmes actuels. De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s’expliquer.
“L’explicabilité” du traitement algorithmique et du fonctionnement de l’IA deviennent tout l’enjeu de la confiance, de l’éthique et de la sécurité numérique. Les machines décisionnelles, de contrôle, autonomes, devront alors s’inscrire dans un projet global d’intégration bidirectionnelle hommes-machines, de type XAI (Explainable Artificial Intelligence). )
Diplômé d’une maîtrise de philosophie, d’un DEA de Sciences Cognitives de l’Ecole polytechnique, d’un Executive MBA à HEC-UCLA, d’une Thèse de Doctorat de l’Université Paris-Dauphine. Bruno a passé plus de 20 ans à des postes de direction marketing et digitale de grands groupes et des startups. Cofondateur de la Chaire Data Scientist de l’Ecole Polytechnique (Keyrus, Thales et Orange).
Il fut également le cofondateur et le premier directeur de l’Institut des Hautes Etudes à la Transition Numérique (IHETN) de l’Université de Technologie de Compiègne (UTC), où il est actuellement Chercheur Associé au laboratoire Costech (Complexités, Réseaux et Innovation).
Chez Gfi Informatique, il est charge depuis le mois de juin 2018, de définir au niveau groupe, la stratégie, les offres et les partenariats relatifs à l’Intelligence Artificielle et la Blockchain. Global Practice Director, Artificial Intelligence & Blockchain du groupe GFI.
TABLE RONDE : SOLUTIONS DE STARTUPS CONFRONTÉ À CE PROBLÈME D'EXPLICABILITÉ | CLODÉRIC MARS, CRAFT.AI

TABLE RONDE : SOLUTIONS DE STARTUPS CONFRONTÉ À CE PROBLÈME D'EXPLICABILITÉ | RAPHAËL CANYASSE, CEO ANAMNESE

Ingénieur de l’X et diplômé du Technion, aujourd’hui CTO chez Anamnèse je m’attache à créer des algorithmes et à agréger de la connaissance pour améliorer la santé de tous.
DATA : DROITS D'USAGE, QUALITÉ DES DONNÉES, TRAITEMENT DES DONNÉES | DR CHRISTOPHE RICHARD, SANTEOS (ATOS WORLDLINE) - SYNTEC NUMÉRIQUE

TABLE RONDE : SOLUTIONS DE STARTUPS CONFRONTÉ À CE PROBLÈME D'EXPLICABILITÉ | CLODÉRIC MARS, CRAFT.AI

LE POINT DE VUE JURIDIQUE | ME JULIA PETRELLUZZI, DOCTORANTE EN DROIT ET INTELLIGENCE ARTIFICIELLE

LE POINT DE VUE JURIDIQUE | ME NATHALIE PUIGSERVER, P3B AVOCATS

Comment encadrer efficacement l’IA, sans pour autant freiner l’innovation ?
Faut-il un nouveau cadre juridique spécifique à l’IA ou des adaptations à nos règles juridiques actuelles ?
Prenons l’exemple de la data, composante essentielle de l’IA, « matière première » disponible massivement (Big data) et source importante de valorisation, dont les enjeux vont bien au-delà des données à caractère personnel qui représentent une partie seulement de la donnée utilisée.
Quel cadre juridique de la donnée devons-nous adopter dans ce contexte ?
Faut-il les libérer pour favoriser le développement de l’IA, les encadrer pour préserver le respect de la vie privée ?
Ou bien est-il possible de faire les deux en même temps ?.
PRÉSENTATIONS DES PROJETS À VENIR H2020 SUR LE THÈME DE L'IA | FRÉDÉRIC LAURENT, MINISTÈRE DE LA RECHERCHE

Ingénieur, en charge des questions européennes et en particulier des questions TIC au Ministère de la recherche depuis 8 ans.




