A la croisée des révolutions numériques

Generic selectors
Exact matches only
Search in title
Search in content
Generic selectors
Exact matches only
Search in title
Search in content
Home 5 Évènement 5 Réinventer l’informatique : Au-delà des architectures Von Neumann

RÉINVENTER L’INFORMATIQUE : AU-DELÀ DES ARCHITECTURES VON NEUMANN

L’informatique moderne s’est construite autour du modèle imaginé par le mathématicien John Von Neumann, qui sépare le stockage des données et des instructions dans une mémoire de leur traitement au sein d’une unité de calcul. La mémoire se divise entre mémoire volatile (instructions et données en cours d’utilisation) et mémoire permanente (instructions et données de base de la machine). Et nous ne parlons pas des multiples niveaux mémoires censés accélérer le transfert des données et instructions vers l’unité de calcul.

Ce modèle de plus en plus complexe atteint ses limites avec l’explosion du Big Data et de l’IA qui nécessitent le transfert et traitement de grosses masses de données.

Parallèlement, la puissance des traitements atteint également ses limites. La fréquence des processeurs doit rester limitée afin de ne pas dépenser trop d’énergie. Le nombre de composants sur une puce et la finesse de gravure des processeurs tendent vers des contraintes de la physique. Le recours à un parallélisme massif et à d’autres architectures de communication entre les processeurs est nécessaire pour arriver à une enveloppe d’environ 20 MW pour un Exaflop.

L’informatique rentre dans une ère post loi de Moore et très certainement post architecture de Von Neumman.

La matinée du séminaire sera consacrée à l’examen des alternatives proposée à l’architecture Von Neumann comme le passage à la 3ième dimension, les architectures neuromorphiques ou la rupture quantique.

L’après-midi, nous montrerons les avancées de l’industrie sur ces domaines et aborderons le problème de la programmation de ces nouveaux systèmes.

Au final, une nouvelle informatique se précise, avec de nouveaux langages et une nouvelle façon d’aborder les problèmes de notre monde sous forme de code.

Il s’agit bien d’inventer l’informatique du 21ième siècle.

DATE & LIEU

06 décembre 2018

8h45- 18h00

EDF-Lab Paris-Saclay

Grand Auditorium situé en rez de jardin du bâtiment AZUR
7 Boulevard Gaspard Monge
91120 Palaiseau

SITUATION

Organisateurs et partenaires

PROGRAMME

08h45 – 09h15

Accueil & café

09h15 – 09h30

Introduction de la journée

09h30 – 10h15

Fin de l’ère ‘logique binaire-architecture Von Neumann-CMOS’ : tapage ou véritable ‘nouveau monde’ ?

Alain Cappy

Université de Lille

10h15 – 10h45

Les challenges posés par les systèmes de calcul pour les applications cyber-physiques cognitives

Marc Duranton

CEA/DRT

10h45 – 11h15

Pause café

11h15 – 11h45

Utiliser la lumière pour éclairer l’avenir de l’intelligence artificielle

Igor Carron

LighOn

11h15 – 12h15

Vers une IA organique intégrée

Patrick Pirim

Another Brain

12h15 – 12h45

Bayes, de la cellule à la machine

Pierre Bessière

UPMC/CNRS

12h45 – 14h00

Déjeuner buffet

14h00 – 14h45

Introduction au calcul quantique et état de l’art

Denis Vion

CEA/DRF

14h45 – 15h15

Vers un traitement de l’information quantique à grande échelle basée sur les spins électroniques dans les semi-conducteurs

Tristan Meunier

CNRS

15h15 – 15h45

La programmation quantique

Cyril Allouche

ATOS

15h30 – 15h45

Pause café
Un huron aux pays des algorithmes

Delphine JAFAAR

Cabinet Jaafar

Les médecins à l’épreuve de l’IA en santé

Dr Jacques LUCAS

Conseil National de l’Ordre des Médecins

Un huron aux pays des algorithmes

Delphine JAFAAR

Cabinet Jaafar

17h20 – 17h35

Conclusion

Résumé de la présentation

FIN DE L’ÈRE ‘LOGIQUE BINAIRE-ARCHITECTURE VON NEUMANN-CMOS’ : TAPAGE OU VÉRITABLE ‘NOUVEAU MONDE’ ? | ALAIN CAPPY, IEMN-IRCICA

Pour des raisons scientifiques, technologiques et énergétiques, les règles de changement d’échelle (R. Dennard, 1974) qui ont guidé l’évolution de la micro-nanoélectronique pendant près de 50 ans ne peuvent plus être appliquées aujourd’hui. Les conséquences de ce changement sont multiples : plafonnement de la fréquence d’horloge, complexité plus grande de l’architecture des processeurs (multicœurs) et stagnation des performances. La médiocre efficacité énergétique des systèmes actuels constitue également un frein au développement des applications mobiles et son impact sur l’environnement (consommation électrique) devient non négligeable. Il devient donc urgent de proposer de nouveaux paradigmes de traitement de l’information capable de réduire de façon drastique la consommation d’énergie tout en en améliorant les performances. Reposant sur de multiples disciplines (thermodynamique, physique de la matière, nanosciences et nanotechnologies, théorie de l’information, informatique, neurosciences..), la R&D sur ces nouveaux paradigmes demande impérativement une approche pluridisciplinaire couvrant, a minima, les aspects matériel et logiciel.

Après une présentation des questions scientifiques et technologiques qui se posent, nous décrirons quelques pistes possibles pour le traitement de l’information de l’ère post ‘binaire-Von-Neumann-CMOS’ comme le calcul quantique ou la bio-inspiration. Au-delà des effets d’annonce, nous essayerons de tracer une image claire des avantages et des limites de ces différentes approches.

Alain Cappy est ancien élève de l’École Normale Supérieure de Cachan et agrégé de Sciences physiques. Depuis 1991, il est Professeur à l’Université de Lille où il enseigne l’électronique, en particulier la physique des dispositifs à semi-conducteurs. Il est auteur ou coauteur de plus de 100 articles dans des revues internationales, et de 115 communications dans des conférences, dont 25 invitées. Il a participé à de nombreux contrats de recherche nationaux, Européens et a été coordinateur d’un projet européen du 6e PCRD. De 2002 à 2009, il a dirigé l’Institut d’Électronique de Microélectronique et de Nanotechnologie, un laboratoire de recherche réunissant plus de 450 personnes, et directeur de l’IRCICA de 2010 à 2014, un hôtel à projets dont l’objectif est le développement de recherches interdisciplinaires associant les communautés du logiciel et du matériel. Alain Cappy a été membre du Comité de Pilotage du défi ‘Information et Communication’ de l’ANR, expert auprès d’agences étrangères de financement de la recherche. Il a également été chargé de mission auprès du Directeur Général Délégué à la Science du CNRS et délégué scientifique au Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCERES).

alain.cappy[a]univ-lille.fr

 
LES CHALLENGES POSÉS PAR LES SYSTÈMES DE CALCUL POUR LES APPLICATIONS CYBER-PHYSIQUES COGNITIVES | MARC DURANTON, CEA/DRT

Les systèmes de calcul ne sont plus limités à des machines qui interagissent par l’intermédiaire d’écrans et de claviers, mais ils s’intègrent dans le monde réel en analysant images, sons, signaux et agissant en conséquence sur celui-ci. Les véhicules autonomes, robots etc, sont des exemples de ces dispositifs « cyber-physiques ». Cette analyse de l’environnement est grandement aidée par les progrès en Intelligence Artificielle, et plus particulièrement de l’apprentissage profond. Mais ces nouvelles conditions d’utilisation des systèmes informatiques posent de nouveaux challenges qui ont grandement été ignorées, comme le contrôle temporel, la consommation énergétiques, les aspects de sécurité qui se transforment en sûreté etc.

Nous verrons que des approches récentes utilisant de l’empilement 3D, de la photonique,des matériaux utilisés pour simuler des synapses artificielles et de nouveaux paradigmes de calcul peuvent aider à répondre à ces challenges.

Marc Duranton est membre de l’institut List du Département Recherche et Technologie du CEA (Commissariat à l’Énergie Atomique), où il est impliqué dans des réalisations pour l’apprentissage profond (Deep Learning) et sur les systèmes cyberphysiques. Auparavant, il a passé plus de 23 ans chez Philips et Philips Semiconductors où il a dirigé le développement de la famille des processeurs numériques L-Neuro réalisant des calculs de réseaux neuronaux artificiels. Il a également travaillé sur plusieurs coprocesseurs vidéo pour le processeur VLIW TriMedia et pour différentes plates-formes Nexperia. Chez NXP Semiconductors, il était responsable du projet Ne-XVP qui visait la conception automatique du matériel et du logiciel d’un processeur multi-cœurs pour des applications temps réel et pour le traitement vidéo grand public. Ses centres d’intérêt incluent l’apprentissage profond, l’intelligence artificielle et les paradigmes émergents pour les systèmes informatiques, les systèmes embarqués, les systèmes cyberphysiques (cognitifs), les architectures parallèles pour le traitement haute performance et en temps réel, les modèles de calcul et de communication avec garantie de temps. Il a publié plus de 35 brevets et plusieurs chapitres de livres. Il est aussi responsable de l’activité de la “vision HiPEAC” sur les systèmes hautes performances et embarquées, disponible gratuitement sur http://www.hipeac.net/roadmap

marc.duranton[a]cea.fr

 
UTILISER LA LUMIÈRE POUR ÉCLAIRER L'AVENIR DE L'INTELLIGENCE ARTIFICIELLE |IGOR CARRON, LIGHON

Des études récentes montrent que le hardware IA constituera un business de 26 milliards $ en 2020. En termes de perspectives techniques, l’industrie des semi-conducteurs se rapproche lentement de la fabrication de chips à 7nm mais leur perspective à 10 ans montre qu’une IA à large échelle nécessitera un pourcentage substantiel de l’énergie consommée dans le monde. La loi de Moore est en train de ralentir sous nos yeux et la loi d’échelle de Denard se brisera dans à peu près 10 ans. Lighton développe une technologie disruptive qui utilise la lumière pour réaliser les opérations importantes de l’Intelligence Artificielle. Nous expliquerons le fonctionnement de notre technologie et comment nos architecture non Von Neumann adresse ces défis de l’informatique future.

Igor Carron est le CEO de LightOn. Igor a un PhD de Texas A&M University. Avant de créer LightOn avec Laurent Daudet, Sylvain Gigan et Florent Krzakala, il s’est occupé de dévelopement technologique sur la Station Spatiale Internationale et la navette américaine ainsi que de la destruction du plutonium militaire Russe et Américain.

CEO and Co-Founder, LightOn || Linkedin profile || Nuit Blanche, a technical blog || Co-organizer Machine Learning Paris meetup.

igorcarron[a]gmail.com

 
VERS UNE IA ORGANIQUE INTÉGRÉE | PATRICK PIRIM, ANOTHER BRAIN

Partant du principe que le cerveau ne traite pas l’information mais la transforme en représentations sémantiques spatio-temporelles, et que c’est la population neuronale et non le neurone seul qui délivre l’information, il devient possible d’en créer un modèle électronique générique, multimodal, et bio-inspiré. Cet artéfact cognitif équipé de capteurs et d’actionneurs constitue l’IA organique. Qu’est-ce que notre cerveau ? Apprendre de manière non supervisée en un coup, d’une façon incrémentale et successive. Quel est le rôle de l’attention et la motivation ? Raisonner sans logique. L’émergence de la conscience.… Les réponses à ces questions se construisent à partir d’un nombre réduit de fonctions élémentaires implémentées en électronique et connectées massivement. L’intérêt de cette IA organique est son intégration très compacte en électronique, temps réel à faible fréquence donc à énergie réduite. C’est une boîte blanche, les fonctionnalités sont explicables à tous les niveaux. Les mémoires associatives non volatiles constituent la connaissance acquise de l’application, et est transférable d’un support à un autre afin de l’enrichir. La réalisation d’un prochain circuit intégré est promue à de nombreux débouchés industriels.

Ingénieur électronicien de formation (ENSEA 77), l’orientation d’abord Bionic s’est faite dès 1986 avec la conception d’un premier ASIC, la découverte de l’attracteur dynamique puis la réalisation d’un second circuit électronique bio-inspirée en 1989. A ce jour, le procédé s’est enrichi de 7 circuits avec la mise en place des aspects Global, Dynamique et Structurel des diverses modalités perceptives. Le démarrage en 2017 de Anotherbrain permet de poursuivre cette voie avec l’avènement de l’IA organique.

patrick[a]anotherbrain.ai

 
BAYES, DE LA CELLULE À LA MACHINE | PIERRE BESSIÈRE, UPMC/CNRS

Nous essaierons de susciter réflexions et discussions sur les 5 questions suivantes :
1) Logique ou probabilité comme modèle de la rationalité ?
2) Peut-on envisager une programmation bayésienne ?
3) Le cerveau est-il bayésien ?
4) La cellule est-elle bayésienne ?
5) Peut-on construire des ordinateurs dont le hardware soit probabiliste plutôt que logique ?

Nous insisterons particulièrement sur cette dernière question et sur la vision de l’informatique du futur qu’elle implique.

Pierre BESSIERE est Directeur de Recherche au CNRS qu’il a rejoint en 1992. Ingénieur ENSIMAG, il a passé une thèse de docteur ingénieur en informatique en 1983. Après un Post-Doctorat au Stanford Research Institute (SRI) sur un projet pour la NASA, il a passé 5 ans dans la société ITMI en tant que responsable R&D en Intelligence Artificielle. De 1995 à 2010 il a dirigé le groupe de recherche BAYESIAN-PROGRAMMING.ORG :Modèles aléatoires pour la perception, l’inférence et l’action. Il a suscité et piloté le projet européen de recherche fondamentale sur les modèles Bayésiens appelé BIBA (Bayesian Inspired Brain and Artefact) et a participé à son prolongement dans le cadre du projet Européen BACS (Bayesian Approach to Cognitive Systems) et enfin le projet européen BAMBI (Bottom-up Approaches to Machines dedicated to Bayesian Inference). En 2010 il a rejoint le Laboratoire de la Physiologie de la Perception et de l’Action (LPPA) au Collège de France puis en 2015 l’Institut des Systèmes Intelligents et Robotique (ISIR) à Sorbonne Université. Pierre BESSIERE est l’un des fondateurs de la société ProbaYes où il intervient comme conseiller scientifique.

pierre.bessiere[a]isir.upmc.fr

 
INTRODUCTION AU CALCUL QUANTIQUE ET ÉTAT DE L’ART | DENIS VION, CEA/DRF

La recherche académique et quelques compagnies privées travaillent d’arrache-pied à la construction de processeurs quantiques qui surpasseraient nos processeurs classiques dans certaines tâches. Les bases du calcul quantique seront présentées ainsi que les différentes plateformes matérielles prototypes, dont celle basée sur les circuits supraconducteurs.

Denis Vion a fait son doctorat au CERN sur la résistivité résiduelle des cavités accélératrices de particules. Il a travaillé en tant que post-doctorant (1993-1996) dans le groupe Quantronique du CEA, sur la boite et le transistor à paires de Cooper. En 2000, il a commencé à développer des qubits supraconducteurs et a réalisé avec ses collègues le premier qubit Josephson à long temps de cohérence (~ 1μs) et dispositif de lecture en 1 coup : le quantronium. Il a enseigné la physique des qubits Josephson dans plusieurs écoles d’été sur l’information quantique. Il a ensuite développé des processeurs quantiques élémentaires et réalisé des expériences de physique quantique fondamentale avec des atomes artificiels Josephson. En 2010-2012, l’équipe a fait la première observation d’une violation d’une inégalité de Bell en temps, et a démontré une accélération quantique dans un processeur quantique électrique implémentant l’algorithme de Grover sur deux qubits. Denis Vion continue à développer des circuits quantiques et s’intéresse également aux circuits hybrides combinant circuits supraconducteurs et spins implantés dans des solides.

denis.vion[a]cea.fr

 
VERS UN TRAITEMENT DE L'INFORMATION QUANTIQUE À GRANDE ÉCHELLE BASÉE SUR LES SPINS ÉLECTRONIQUES DANS LES SEMI-CONDUCTEURS | TRISTAN MEUNIER, CNRS

La démonstration récente d’opérations quantiques très cohérentes sur des qubits de spin dans le silicium purifié a stimulé un effort important dans le monde des semi-conducteurs, tant académique qu’industriel, pour relever les défis du traitement de l’information quantique à grande échelle. En raison de l’impressionnant surcoût du nombre de qubits imposé par les codes correcteurs d’erreurs quantiques, les qubits de spin présentent plusieurs avantages en vue d’une architecture pour le calcul quantique à grande échelle : leur taille et leur compatibilité immédiate à la technologie CMOS avancée.

Je vais passer en revue cet effort avec d’abord la description des différents porteurs d’information de spin quantique (noyaux, électrons, trous) dans les structures semi-conductrices, comment les contrôler et les mesurer, leurs caractéristiques principales et leurs figures de mérite. Je décrirai ensuite les défis à relever pour les contrôler et les coupler à grande échelle, et les architectures envisagées pour réaliser des codes correcteurs d’erreurs et des algorithmes quantiques.

Dr Tristan Meunier a obtenu ses diplômes de master (2001) et de doctorat (2004) à l’École Normale Supérieure de Paris. Il a reçu une bourse Marie-Curie (2005-2008) qu’il a passée dans le groupe Quantum Transport, TU Delft, après quoi il a été nommé chercheur permanent au CNRS-Institut Néel (2008). Ses intérêts de recherche et ses contributions concernent principalement le contrôle cohérent des objets quantiques individuels et leur utilisation dans le cadre de l’information quantique. Il a étudié des systèmes dans différents domaines de recherche tels que la physique atomique (CQED avec des atomes de Rydberg) et la physique des solides (qubits de spin d’électrons dans les boîtes quantiques latérales). En 2012, il a reçu la bourse du Conseil européen de la recherche (ERC) pour conduire ses recherches sur les propriétés quantiques du spin d’un électron dans les semi-conducteurs. Depuis 2016, il est l’un des acteurs principaux de l’équipe projet CEA-CNRS qui cherche à développer l’ordinateur quantique sur une plateforme Si à base de spins électroniques uniques. Il est l’auteur de plus de 50 publications avec plus de 3000 citations.

tristan.meunier[a]neel.cnrs.fr

 
LA PROGRAMMATION QUANTIQUE | CYRIL ALLOUCHE, ATOS

Les lois de la physique quantique nous promettent une nouvelle puissance de calcul inégalée, permettant d’aborder des problèmes de taille et de complexité exponentielles. Un grand défi est donc de « dompter » ces lois dans des qubits, afin que les deux principes fondamentaux du calcul quantique, à savoir la superposition et l’intrication, soient utilisables à des fins de calcul numérique. Un autre défi, moins connu mais tout aussi délicat, est celui de la programmation de ces processeurs quantiques. Si le principe de superposition s’apparente assez bien au concept classique de parallélisme, l’intrication, elle, n’a aucun équivalent en informatique classique. La physique quantique nous amène aussi de nouvelles contraintes conceptuelles, la plus importante étant le théorème de non-clonage, dont les conséquences sur la programmation sont extrêmement impactantes. La programmation quantique est ainsi un paradigme à part en informatique, à tel point que les ordinateurs quantiques, s’ils adviennent, devront être programmés selon des nouveaux langages et méthodes et avec des nouveaux outils.

Après une rapide introduction, nous illustrerons ces nouveaux concepts au travers de la Quantum Learning Machine (QLM), une plate-forme de programmation et d’émulation quantique parmi les plus puissantes et les plus complètes au monde, développée au sein des laboratoires de recherche du groupe Atos

Cyril ALLOUCHE est ingénieur de l’École polytechnique et docteur en informatique de l’Université Paris-Sud. Fellow expert, et directeur des programmes d’innovation au sein du groupe Atos, il dirige le programme de R&D en informatique quantique qu’il a initié en 2016.

https://atos.net/fr/vision-et-innovation/atos-quantum

cyril.allouche[a]atos.net

 
INVESTIR DANS LES TECHNOLOGIES QUANTIQUES : AU DELÀ DE LA SCIENCE,DES MARCHÉS ET DES OPPORTUNITÉS POUR LES ENTREPRENEURS | CHRISTOPHE JURCZAK, QUANTONATION

De grands groupes industriels ainsi que des fonds de capital risque investissent dans le calcul quantique alors que la question de la maturité technologique peut être légitimement posée. Des programmes publics de soutien se mettent en place sur tous les continents avec des ambitions variées.

L’objectif de cette intervention est de donner le point de vue d’un investisseur privé sur la pertinence d’une stratégie ambitieuse d’entrée dans le secteur. C’est aussi un plaidoyer pour l’émergence d’une filière industrielle Quantique en France, avant qu’il ne soit trop tard.

Christophe Jurczak – Directeur Général de Quantonation. Ancien élève de l’École Polytechnique (X89) et titulaire d’une thèse en Physique Quantique. Christophe Jurczak a mené sa carrière dans les domaines de l’optronique et de l’énergie en France, en Italie et aux États-Unis. Il a été responsable, à Palo Alto, du business développement chez QC Ware, une des premières startups dans le secteur du software pour ordinateur quantique. Il a co-fondé en 2018 Quantonation, le premier fonds d’investissement dédié aux technologies de ruptures issues de la Physique, entre autres le calcul et la sécurité quantiques. Quantonation est basé à Paris avec de forts liens avec la Silicon Valley. Il fournit le capital nécessaire dans les premiers tours de financement des startups et se caractérise par une forte compétence scientifique et une connaissance approfondie des marchés accessibles à ces technologies de rupture.

christophe[a]quantonation.com

 
L’OPTIMISATION QUANTIQUE – LE PROBLÈME, LE POTENTIEL ET L’APPLICATION | WITOLD KOWALCZYK, BOHR TECHNOLOGY

L’intervention portera sur la possibilité des ordinateurs quantiques à résoudre les problèmes d’optimisation combinatoire. L’intervention commencera par une présentation des ordinateurs quantiques disponible aujourd’hui, leur fonctionnement et le potentiel qu’ils présentent dans le domaine de l’optimisation. Ensuite, une courte analyse de différents problèmes d’optimisation, leur importance pour plusieurs secteurs de l’industrie ainsi que les solutions actuellement disponibles, suivra.

Finalement, l’intervention portera sur les algorithmes d’optimisation quantique. Cette partie sera notamment basée sur l’expérience de Bohr Technology dans ce domaine. Différents efforts d’optimisation quantique et leurs succès seront présentés.

Witold Kowalczyk est un entrepreneur technologique, un chercheur et un programmeur autodidacte passionné par l’IA, la robotique et l’ordinateur quantique. Il a étudié le droit à l’université de Varsovie et a poursuivi des études de type mastère à l’université de Paris Panthéon-Assas complémentées par de nombreux stages internationaux. En 2014, il a obtenu un mastère de droit de l’Université de Varsovie avec la plus haute mention. Il est actuellement doctorant dans cette université. En septembre 2017, il a fondé Bohr.Technology pour explorer les opportunités apportées par l’ordinateur quantique dans le monde des transports.

wk[a]bohr.technology

 
LE CALCUL QUANTIQUE ET SES APPLICATIONS EN CHIMIE ET EN PHYSIQUE | IVANO TAVERNELLI, IBM RESEARCH

Intervention en anglais

Le calcul quantique émerge comme un nouveau paradigme pour la solution d’une large classe de problèmes qui ne sont traitables par des ordinateurs classiques haute performance utilisant des algorithmes classiques. Les ordinateurs quantiques peuvent en principe résoudre des problèmes qui requièrent des ressources exponentielles sur du matériel classique, même en utilisant les meilleurs algorithmes classiques disponibles. Ces dernières années, beaucoup de problèmes intéressants possédant une accélération quantique potentielle ont été mis en avant dans le domaine de la physique quantique, comme la recherche de valeurs propres utilisant des algorithmes d’estimation de phases quantiques et d’observables en chimie quantique, par le biais de l’algorithme hybride variationnel de résolution de valeurs propres quantiques (VQE).

L’idée originale qu’un ordinateur quantique peut potentiellement résoudre des problèmes de mécanique quantique à un corps plus efficacement qu’un ordinateur classique vient de Richard Feynman, qui a proposé d’utiliser des algorithmes quantiques pour investiguer les propriétés de la nature à l’échelle quantique. En particulier, la simulation de la structure électronique des systèmes moléculaires et de matière condensée est une tâche de calcul difficile du fait que le coût des ressources mises en œuvre augmente exponentiellement avec le nombre d’électrons lorsque des solutions précises sont requises. Avec une compréhension plus profonde des systèmes quantiques complexes acquis lors des dernières décennies, cette barrière exponentielle peut être surmontée en utilisant un ordinateur quantique. Pour atteindre cet objectif, de nouveaux algorithmes quantiques doivent être développés pour exploiter au mieux le potentiel de l’accélération quantique [1,2]. Alors que cet effort devrait cibler la conception d’algorithmes quantiques pour les futurs ordinateurs résistant aux pannes, il y a un besoin pressant de développer des algorithmes implémentables sur des architectures quantiques actuelles non tolérantes aux pannes et avec un temps de cohérence limité [3].

Dans cette intervention, nous introduirons d’abord les bases d’un ordinateur quantique utilisant des qubits supraconducteurs, en mettant l’accent sur ces aspects qui sont déterminants pour l’implémentation d’algorithmes de chimie quantique. Dans la seconde partie, je discuterai brièvement des limitations concernant les approches classiques disponibles et mettrai en avant les avantages de la nouvelle génération d’algorithmes quantiques pour la solution de Schrödinger à n électrons.

[1] B.P. Lanyon et al., Nature Chem. 2, 106 (2010).
[2] N. Moll, et al., Quantum Sci. Technol. 3, 030503 (2018).
[3] P. Baroutsos, et al., ArXiv: 1805.04340 (2018).

Ivano Tavernellli a étudié la biochimie ( M.SC.,1991) et la physique théorique (M.Sc., 1996) à l’ETH Zurich, où il a obtenu son doctorat en 1999. En 2000, il a reçu une bourse Marie Curie pour travailler dans le groupe du Professeur Michiel Sprik à l’Université de Cambridge en Angleterre. Il est ensuite revenu en Suisse pour un PostDoc à l’ETH ( 2002-2003) et plus tard à l’École Polytechnique Fédérale de Lausanne (EPFL,2003-2014). En 2010, il a obtenu le titre de Maître d’Enseignement de Recherche à l’EPFL. Finalement en décembre 2014, il a rejoint le laboratoire de recherches IBM Zurich (ZRL) à Rueschlikon en Suisse. Dans le domaine de la mécanique classique-quantique, il a développé et implémenté un nouveau cadre théorique pour combiner les techniques de structure électronique s’appuyant sur la densité électronique (DFT et TDDFT) avec le calcul des trajectoires classiques et quantique non adiabatique. Son champ de recherche dans ce domaine comprend la mécanique moléculaire adiabatique et non adiabatique (mécanique d’Ehrenfest, saut de surface de trajectoire et mécanique Boehmienne) pour l’étude des processus photochimiques et photo-physiques dans les molécules, les phases condensées et les systèmes biologiques. En 2015, il a rejoint l’équipe de calcul quantique du ZRL et travaillait sur des architectures qubits supraconductrices. Il s’intéresse particulièrement au développement d’algorithmes quantiques pour la simulation de systèmes fermioniques (électrons corrélés dans des molécules et des solides) dans à la fois des ordinateurs quantiques adiabatiques et numériques. Il est maintenant le responsable technique de l’équipe de calcul quantique théorique à IBM Zurich.

 
POUR EN SAVOIR PLUS :

https://www.nextplatform.com/2018/05/10/tearing-apart-googles-tpu-3-0-ai-coprocessor/https://fr.wikipedia.org/wiki/3D_XPointhttps://www.espci.fr/fr/actualites/2016/lighton-revolutionne-le-calcul-informatiquehttps://itsocial.fr/innovation/robotisation/comprendre-linformatique-neuromorphique-memtransistor/https://www.frenchweb.fr/anotherbrain-10-millions-deuros-pour-creer-une-intelligence-artificielle-totalement-autonome/315971http://www.oezratty.net/wordpress/2018/comprendre-informatique-quantique-qubits/http://www.oezratty.net/wordpress/2018/comprendre-linformatique-quantique-ordinateur-quantique/https://www.lesechos.fr/idees-debats/sciences-prospective/0301899612968-ordinateur-quantique-le-cea-mise-sur-le-silicium-2190873.phphttps://atos.net/fr/2018/communiques-de-presse/communiques-generaux_2018_04_09/atos-annonce-une-premiere-mondiale-en-informatique-quantiquehttp://www.bohr.technology/http://news.mit.edu/2017/toward-optical-quantum-computing-0616https://www.top500.org/news/fusion-energy-startup-is-counting-on-exascale-computing/https://www.top500.org/news/software-breakthrough-paves-the-way-for-full-brain-simulations-on-exascale-supercomputers//