A la croisée des révolutions numériques

Generic selectors
Exact matches only
Search in title
Search in content
Generic selectors
Exact matches only
Search in title
Search in content
Home 5 Évènement 5 L’IA : un buzzword du moment, ou une avancée majeure pour le futur ?

L’IA : UN BUZZWORD DU MOMENT, OU UNE AVANCÉE MAJEURE POUR LE FUTUR ?

Depuis quelques temps, l’intelligence artificielle devient pour beaucoup la solution magique à tous les problèmes.
Est-ce raisonnable ? Est-ce un effet de mode ? Est-ce une réalité ? Que penser de cette percée de l’IA dans notre quotidien ?

C’est pour tenter de faire la part des choses dans ce contexte que l’Association Aristote a décidé de proposer une journée dédiée à ce thème.

Laurence Devillers, chercheuse à Limsi, donne une définition claire de l’IA : « ensemble de théories, d’algorithmes et de logiciels, qui ont pour objectif de simuler des capacités cognitives de l’homme »

Cette technologie informatique n’est pas nouvelle. Elle a été introduite dès 1955 par deux Docteurs en mathématiques et en sciences, John McCarthy et Marvin.

On segmente l’IA en deux catégories : l’IA forte et l’IA faible.

La première répond à des capacités cognitives égales ou supérieures à l’être humain, à une conscience de soi et à la possibilité d’éprouver des sentiments. On est bien loin d’atteindre ce stade à ce jour. L’objectif de la journée sera plutôt focalisé vers un futur plus proche, celui de l’IA faible. Elle vise à reproduire un comportement observé par un programme informatique. Elle n’est pas en mesure de produire toute seule de la connaissance.

L’intelligence artificielle est d’ores et déjà présente dans notre quotidien depuis de nombreuses années. L’IA dépend de 4 éléments que sont : l’homme, la technologie, les algorithmes, la data.

Si nous arrivons à des résultats probants aujourd’hui, c’est grâce aux travaux effectués ces dernières dizaines d’années. En effet, la puissance de calcul des calculateurs, les algorithmes, la génération des données récoltées sont suffisamment avancés pour que les résultats soient au RdV.

La journée débutera par une keynote d’un expert de l’IA. Elle se poursuivra par des exposés et/ou tables rondes sur les différents thèmes suivants :

• État de l’art et limites (Deep Learning, machine learning, systèmes experts, ….)
• Cas particuliers du Deep Learning
• Architectures & implémentation, tant hardware que software
• Data : droits d’usage, qualité de données, traitement des données
• Impact environnemental, consommation énergétique
• Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
• Besoin de formation

La Conclusion de la journée abordera les doutes, les craintes, les risques mais aussi les opportunités à savoir saisir. Le lien de cette technologie à l’humain sera au centre des discussions pour que l’IA soit au service de l’homme et non l’inverse.

 

DATE & LIEU

15 novembre 2018

8h45 – 17h30

École Polytechnique

Amphithéâtre Becquerel
91120 Palaiseau

SITUATION

Organisateurs et partenaires

PROGRAMME

08h45 – 09h10

Accueil & café

09h10 – 09h20

Introduction de la journée

Bernard Monnier
Christophe Denis
Mikael Campion
Judith Nicogossian

MIM
EDF Lab
DSI Group
Antropologue

09h20 – 10h00

Keynote d’introduction de la journée IA

Laurence Devillers

Professeure en informatique appliquée aux sciences sociales, Université Paris-Sorbonne 4

10h00 – 10h30
FastText : une bibliothèque pour intégrer et classer du texte et d’autres informations discrètes

Armand Joulin

Facebook

10h30 – 11h00
IA hybride, comment implémenter l’IA dans les projets

Thierry Caminel

ATOS

11h00 – 11h20
Pause café
11h20 – 11h50

IA, besoin, explicabilité, projets européens

David Sadek

Thales

11h50 – 12h10
Cas particuliers du Deep Learning
Alice Froidevaux
Quantcube Technology
12h10 – 12h30
Cas particuliers du Deep Learning
Thierry Berthier
Maitre de Conférences en Mathématique, chercheur en cybersécurité
13h00 – 14h00
Déjeuner buffet au salon d’Honneur
14h00 – 14h45
Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
Christophe Denis, EDF
Agnes Delaborde, LNE
Table ronde sur les aspects théoriques et besoins
Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
Bruno Teboul, AI & Blockchain du groupe GFi
Table ronde sur les aspects théoriques et besoins
14h45 – 15h00
Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
Raphaël Canyasse, CEO Anamnese

Solution de startups confronté à ce problème d’explicabilité

Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
Clodéric Mars, Craft.ai
Solution de startups confronté à ce problème d’explicabilité
15h00 – 15h25
Data : droits d’usage, qualité des données, traitement des données
Dr Christophe Richard
Santeos (Atos Worldline) – Syntec Numérique
15h25 – 15h50
Le point de vue juridique

Me Julia Petrelluzzi
Me Nathalie Puigserver

Doctorante en Droit et intelligence artificielle
P3B Avocats

15h50 – 16h10

Pause café

16h10 – 16h30
Impact environnemental, consommation énergétique

Alice Mizrahi

Chercheuse, unité mixte CNRS-Thales

16h30 – 16h40
Initiative Green IA

Mounir Haddad
Mikael Campion
Christophe Denis
Bernard Monier

DSI group/IMT Atlantique
DSI Group
EDF Lab – ENS Paris-Saclay – Sorbonne Université
MIM

16h40 – 17h00

Présentations des projets à venir H2020 sur le thème de l’IA

Frédéric Laurent

Ministère de la Recherche

17h00 – 17h30

Conclusion

David Ros

Maire d’Orsay, Vice-Président du Conseil Général de l’Essonne et Vice-Président de la Communauté d’Agglomérations Paris Saclay

Résumé de la présentation

LES ÉMOTIONS ET L'ÉTHIQUE DANS L’IA | LAURENCE DEVILLERS, PROFESSEURE EN INFORMATIQUE À SORBONNE-UNIVERSITÉ ET CHERCHEUR AU LIMSI-CNRS, ÉQUIPE “DIMENSIONS AFFECTIVES ET SOCIALES DANS LES INTERACTIONS PARLÉES”

La conversation pendant des interactions sociales implique naturellement l’échange de contenu linguistique, mais aussi et peut-être de façon plus importante l’expression de relations interpersonnelles, aussi bien que d’expressions d’émotion, d’affect, d’intérêt, etc.

Dans un avenir proche, la détection des émotions sera utilisée dans les systèmes de marketing, ou de santé. La robotique sociale et affective d’assistance sera déployée pour certains aspects du soin, en automatisant la surveillance, l’entraînement, la motivation et l’aspect compagnon des robots pour les personnes âgées, les enfants ou les personnes handicapées.

La projection affective sur ces objets qui vont communiquer avec nous grâce à la parole sera forte d’autant plus si on brouille les frontières entre vivant et artificiel. La manipulation douce, “le nudging”, sera aussi très efficace.

Il est nécessaire de développer des systèmes conversationnels (robots/chatbots) éthiques by design, combinant développement technologique de haut niveau et réflexions éthiques, pour assurer l’harmonie et l’acceptabilité de leurs relations avec les êtres humains.

Laurence Devillers développe le projet “Bad Nudge Bad Robot” au sein de l’institut de convergence DATAIA à Saclay, et participe au déploiement de la plateforme TransAlgo, transparence et explicabilité des algorithmes..

Laurence Devillers est Professeur d’informatique à Sorbonne Université et chercheur au LIMSI-CNRS sur les “Dimensions affectives et sociales dans les interactions parlées”.
Elle est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA) d’Allistène et est impliquée dans “The IEEE Global Initiative for Ethical Considerations in the Design of Autonomous Systems” depuis 2016.

Auteure de plus de 150 publications, elle a égalementécrit le livre « Des robots et des hommes : mythes, fantasmes et réalité », (Plon, 2017) pour alerter sur l’urgence de recherches pluridisciplinaires et de considérations éthiques pour la conception des (ro)bots conversationnels.

Laurence Devillers

IMPACT ENVIRONNEMENTAL, CONSOMMATION ÉNERGÉTIQUE | ALICE MIZRAHI, CHERCHEUSE, UNITÉ MIXTE CNRS-THALES

Les avancées récentes en intelligence artificielle présentent un fort coût énergétique, ce qui pose problème aussi bien pour l’environnement que pour leur intégration dans les objets connectés. Ce coût énergétique est dû au fait que les algorithmes d’IA sont mis en œuvre sur des ordinateurs conventionnels, qui leur sont peu adaptés. Une piste prometteuse est de s’inspirer du cerveau pour développer de nouveaux types d’ordinateurs, moins énergivores. Dans cet exposé j’explore quelques idées clefs, incluant la proximité du calcul et de la mémoire ainsi que la gestion des erreurs et de l’aléatoire.

Alice Mizrahi travaille au sein de l’Unité Mixte de Physique CNRS/Thales, où elle recherche comment utiliser les nanocomposants pour construire des ordinateurs inspirés du cerveau et peu énergivores. Avant de rejoindre Thales, elle a effectué une thèse à l’Université Paris-Sud puis travaillé au National Institute of Standards and Technology aux Etat Unis.

Alice Mizrahi

FASTTEXT : UNE BIBLIOTHÈQUE POUR INTÉGRER ET CLASSER DU TEXTE ET D'AUTRES INFORMATIONS DISCRÈTES| ARMAND JOULIN, FACEBOOK

Intervention en anglais

Dans cet exposé, je présenterai une bibliothèque pour la classification et la représentation de texte, appelée fastText.

Cette bibliothèque regroupe plusieurs de nos récents progrès en compréhension de texte. Il permet la formation rapide de modèles pouvant être ultérieurement déployés sur des téléphones mobiles..

Armand is a senior staff research scientist in the Facebook AI Research lab. Prior to this position, he was a postdoctoral fellow at Stanford University working with Fei-Fei Li and Daphne Koller. He did his PhD in INRIA and Ecole Normale Superieure, under the supervision of Francis Bach and Jean Ponce. He did his undergrad at Ecole Polytechnique. His subjects of interest are machine learning, computer vision and natural language processing.

Armand Joulin

 
CAS PARTICULIERS DU DEEP LEARNING |ALICE FROIDEVAUX, QUANTCUBE TECHNOLOGY

QuantCube est une Fintech créé en 2013 qui analyse les données alternatives pour la création d’indicateurs macro-économiques et financiers.

La start-up est notamment spécialisée dans l’analyse de texte, d’images et de séries temporelles utilisant différentes méthodes d’intelligence artificielle.
Lors de cette présentation nous mettrons en avant le potentiel de l’utilisation de données alternatives pour la finance et l’économie et illustrerons nos propos avec des cas d’application en analyse d’images satellites..

Alice Froidevaux, Data Scientist chez QuantCube Technology en charge de la mise en place de modèle de deep learning pour l’analyse d’images satellite.

Alice Froidevaux

 
SÉCURITÉ DE L'IA ET APPORT DE L'IA À LA SÉCURITÉ| THIERRY BERTHIER, MAITRE DE CONFÉRENCES EN MATHÉMATIQUE, CHERCHEUR EN CYBERSÉCURITÉ

Nous traiterons de l’apport de l’IA dans la détection en amont des cyberattaques.

De l’automatisation de la détection et de la réponse à incidents.

Sécurité de l’IA, attaques “FDIA” sur des composant de Machine Learning, architectures de données fictives immersives.

Thierry Berthier est chercheur et consultant en cybersécurité & cyberdéfense.
Docteur en mathématiques (cryptographie et théorie des nombres), il enseigne la sécurité numérique à l’Université et est chercheur associé au CREC Saint-Cyr.
Membre actif de la Chaire de cyberdéfense Saint-Cyr, de l’Institut Fredrik Bull et de plusieurs think tank français, il codirige le groupe « Sécurité – Intelligence Artificielle » du Hub national France IA qui travaille sur la sécurité de l’intelligence artificielle et les apports de l’IA en cybersécurité.
Ses recherches s’appliquent aux stratégies algorithmiques et à la détection automatique des architectures de données fictives utilisées en phase initiale de cyberattaque.
Co-auteur du livre « From Digital Traces to Algorithmic Projections » publié aux éditions ISTE & Elsevier, il a défini les nouveaux concepts de projection algorithmique d’un individu, de niveau d’ubiquité et de consentement algorithmique.”

Des traces numériques aux projections algorithmiques – “Sécurité-IA” du Hub FranceIA

Thierry Berthier

 
IA HYBRIDE, COMMENT IMPLÉMENTER L’IA DANS LES PROJETS| THIERRY CAMINEL, ATOS

Les récents et fantastiques progrès du Deep Learning ne doivent pas nous faire oublier que d’autres classes d’algorithmes existent. L’avenir est sans doute à des formes d’hybridation, en particulier entre des technologies de Machine Learning et celles de l’IA symbolique. Nous aborderons dans cette présentation des tendances et approches pragmatiques pour cette hybridation.

Thierry Caminel est le leader de la communauté des Experts en Intelligence Artificielle d’Atos et membre de la communauté scientifique. Il a occupé diverses responsabilités techniques dans des startups, des PME et finalement à Atos, notamment dans les domaines de l’IA, des systèmes embarqués et de l’Internet des objets.

Thierry Caminel

 
ARCHITECTURES & IMPLÉMENTATION, TANT HARDWARE QUE SOFTWARE | FRÉDÉRIC BLANC, KALRAY

Kalray est une entreprise française qui commercialise des puces manycoeurs.
Elle est le pionnier des processeurs pour les nouveaux systèmes intelligents, notamment dans le domaine de l’embarqué et des voitures autonomes.
La présentation prévue aura deux objectifs principaux : Le premier sera d’offrir une vue d’ensemble de l’architecture du MPPA et de sa roadmap; le second visera à présenter les développements dédiés à l’IA chez Kalray.

Formé au CEA Saclay, Mr Blanc a ensuite participé à la phase d’incubation puis de création de l’entreprise KALRAY. Il a participé à de nombreux développements et il est maintenant en charge de la vision par ordinateur sur les architectures KALRAY au sein de l’équipe “solutions embarquées”. Il a aussi participé activement aux premiers prototypes de CNN sur le MPPA.

Frédéric Blanc

 
TABLE RONDE : EXPLICABILITÉ, UTILITÉ SELON LES DOMAINES D’APPLICATION, ARMÉE, JURIDIQUE, SANTÉ, … | AGNES DELABORDE, LNE

Du point de vue de l’évaluateur indépendant, la capacité d’un système à expliquer ses décisions peut permettre :
1) de résoudre la problématique de la boîte noire (selon la criticité de l’application, le concepteur n’est pas toujours dans l’obligation d’ouvrir son code pour inspection),
2) de faciliter la compréhension des systèmes complexes (par exemple réseaux de neurones multi-couches) en vue d’une évaluation et d’une certification, et
3) de mettre au point des protocoles de test pertinents et adaptés (jeux de données de test représentatifs des capacités du système, interprétation des comportements de sortie).

Il est essentiel que les mécanismes d’explicabilité soient fiables et performants, et qu’ils soient élaborés de façon à correspondre tant aux capacités des développeurs qu’aux besoins des entités mises en jeu dans l’inspection et la validation de ces systèmes (pouvoirs publics, juristes, assurances, tiers évaluateurs).

Docteur en informatique de l’Université Paris-Saclay, Agnes Delaborde a rejoint le LNE en 2017 en tant que chercheur afin de développer des méthodes d’évaluation pour la robotique (sociale, industrielle, agricole…) et pour tous systèmes de traitement de données et/ou utilisant de l’Intelligence Artificielle. Ses recherches concernent tant des questions de sécurité des systèmes, que de performance ou d’acceptabilité.

Agnes Delaborde

 
TABLE RONDE : EXPLICABILITÉ, UTILITÉ SELON LES DOMAINES D’APPLICATION, ARMÉE, JURIDIQUE, SANTÉ, … | BRUNO TEBOUL, GROUPE GFI

Les succès de l’apprentissage machine automatique, de l’apprentissage profond… liés à l’essor de l’approche connexionniste en IA (vs IA Symbolique) nous conduit au développement, d’applications en IA de plus en plus rapide, robustes et autonomes. Ces systèmes complexes sont capables de traiter une multitude d’informations visuelles, sonores, lexicales, sémantiques et établir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les humains.

Dans ce contexte, les machines sont capables de très rapidement et avec un taux d’erreur très faible de décider et le cas échéant d’agir dans des délais très rapides. Ces dépassements des simples capacités cognitives humaines engendrent la création de machines autonomes, dont le contrôle ne peut être fait qu’à postériori, dans des temps compatibles avec ceux de la lenteur de l’appareillage informatique et/ou cognitif humain.

Ce pose alors le problème du blocage de l’efficacité des systèmes par l’impossibilité que l’homme a de faire confiance à la machine numérique (“black box society”). On connait ce type de situation dans le domaine du véhicule autonome, du nanotrading et plus encore dans celui des SALA (systèmes d’armes létales autonomes).

La seule solution est une forme d’apprentissage collaboratif, partenarial, de l’homme et de la machine, dans laquelle la machine numérique est capable d’expliquer à l’homme le sens de ses décisions et les limites de son autonomie ; ce que ne savent pas faire les systèmes actuels. De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s’expliquer.

“L’explicabilité” du traitement algorithmique et du fonctionnement de l’IA deviennent tout l’enjeu de la confiance, de l’éthique et de la sécurité numérique. Les machines décisionnelles, de contrôle, autonomes, devront alors s’inscrire dans un projet global d’intégration bidirectionnelle hommes-machines, de type XAI (Explainable Artificial Intelligence). )

Diplômé d’une maîtrise de philosophie, d’un DEA de Sciences Cognitives de l’Ecole polytechnique, d’un Executive MBA à HEC-UCLA, d’une Thèse de Doctorat de l’Université Paris-Dauphine. Bruno a passé plus de 20 ans à des postes de direction marketing et digitale de grands groupes et des startups. Cofondateur de la Chaire Data Scientist de l’Ecole Polytechnique (Keyrus, Thales et Orange).
Il fut également le cofondateur et le premier directeur de l’Institut des Hautes Etudes à la Transition Numérique (IHETN) de l’Université de Technologie de Compiègne (UTC), où il est actuellement Chercheur Associé au laboratoire Costech (Complexités, Réseaux et Innovation).
Chez Gfi Informatique, il est charge depuis le mois de juin 2018, de définir au niveau groupe, la stratégie, les offres et les partenariats relatifs à l’Intelligence Artificielle et la Blockchain. Global Practice Director, Artificial Intelligence & Blockchain du groupe GFI.

Bruno Teboul

 
TABLE RONDE : SOLUTIONS DE STARTUPS CONFRONTÉ À CE PROBLÈME D'EXPLICABILITÉ | CLODÉRIC MARS, CRAFT.AI

Clodéric Mars est le CTO de craft ai, une API d’automatisation cognitive mettant en oeuvre de l’IA explicable. Depuis plus de 10 ans, Il poursuit un objectif : permettre aux non-spécialistes de créer et de collaborer avec des Intelligences Artificielles. À l’INRIA puis chez Golaem et MASA Group il a travaillé sur des techniques d’IA explicite appliquées aux domaines du jeu vidéo, de la simulation et des effets spéciaux. En 2015, il participe à la création de craft ai et se concentre alors sur rendre le « Machine Learning » explicable et performant..

Clodéric Mars

 
TABLE RONDE : SOLUTIONS DE STARTUPS CONFRONTÉ À CE PROBLÈME D'EXPLICABILITÉ | RAPHAËL CANYASSE, CEO ANAMNESE

L’idée d’Anamnèse est de poser des questions d’ordre médical à un patient comme le ferait un médecin. Le problème que l’on chercher à résoudre est le suivant : Quelle est la bonne question (suivante) à poser à un patient ? Je vais parler de système expert et de base de connaissance mais surtout de comment valider les règles du système, les connaissances de la base et comment les exploiter.

Ingénieur de l’X et diplômé du Technion, aujourd’hui CTO chez Anamnèse je m’attache à créer des algorithmes et à agréger de la connaissance pour améliorer la santé de tous.

Raphaël Canyasse

 
DATA : DROITS D'USAGE, QUALITÉ DES DONNÉES, TRAITEMENT DES DONNÉES | DR CHRISTOPHE RICHARD, SANTEOS (ATOS WORLDLINE) - SYNTEC NUMÉRIQUE

Directeur Médical chez Santeos/Atos, Directeur pédagogique à Centrale SupelecExed, Référent du Groupe de travail Données et Intelligence Artificielle en Santé au Syntec Numérique.

Dr Christophe Richard

 
TABLE RONDE : SOLUTIONS DE STARTUPS CONFRONTÉ À CE PROBLÈME D'EXPLICABILITÉ | CLODÉRIC MARS, CRAFT.AI

Clodéric Mars est le CTO de craft ai, une API d’automatisation cognitive mettant en oeuvre de l’IA explicable. Depuis plus de 10 ans, Il poursuit un objectif : permettre aux non-spécialistes de créer et de collaborer avec des Intelligences Artificielles. À l’INRIA puis chez Golaem et MASA Group il a travaillé sur des techniques d’IA explicite appliquées aux domaines du jeu vidéo, de la simulation et des effets spéciaux. En 2015, il participe à la création de craft ai et se concentre alors sur rendre le « Machine Learning » explicable et performant..

Clodéric Mars

 
LE POINT DE VUE JURIDIQUE | ME JULIA PETRELLUZZI, DOCTORANTE EN DROIT ET INTELLIGENCE ARTIFICIELLE

Julia Petrelluzzi est diplômée de deux Masters II en Droit à Paris I, et à l’UVSQ/ Paris-Saclay où elle poursuit une thèse sur l’intelligence artificielle et le Droit. Elle est co-auteur de l’ouvrage « L’intelligence artificielle : ses enjeux en droit civil européen », et est également membre de plusieurs initiatives et associations qui militent pour le développement d’une éthique de l’intelligence artificielle.

Me Julia Petrelluzzi

 

 

 
LE POINT DE VUE JURIDIQUE | ME NATHALIE PUIGSERVER, P3B AVOCATS

L’IA pose de multiples défis aux juristes dont les issues sont déterminantes en termes de performances et de croissance durable de l’innovation.
Comment encadrer efficacement l’IA, sans pour autant freiner l’innovation ?
Faut-il un nouveau cadre juridique spécifique à l’IA ou des adaptations à nos règles juridiques actuelles ?

Prenons l’exemple de la data, composante essentielle de l’IA, « matière première » disponible massivement (Big data) et source importante de valorisation, dont les enjeux vont bien au-delà des données à caractère personnel qui représentent une partie seulement de la donnée utilisée.
Quel cadre juridique de la donnée devons-nous adopter dans ce contexte ?
Faut-il les libérer pour favoriser le développement de l’IA, les encadrer pour préserver le respect de la vie privée ?
Ou bien est-il possible de faire les deux en même temps ?.

Me Nathalie Puigserver

 
PRÉSENTATIONS DES PROJETS À VENIR H2020 SUR LE THÈME DE L'IA | FRÉDÉRIC LAURENT, MINISTÈRE DE LA RECHERCHE

Nous présenterons les différentes opportunités de financement de travaux de RDI sur l’IA par l’Union européenne.

Ingénieur, en charge des questions européennes et en particulier des questions TIC au Ministère de la recherche depuis 8 ans.

Frédéric Laurent