Accès privé
Derniers événements
Suivez-nous

Jeudi 23 mai 2019 : Séminaire En route vers l’Exascale !

23 Mai Jeudi 23 mai 2019 : Séminaire En route vers l’Exascale !

La course à la puissance des différentes nations est une constante historique qui a muté aux travers des époques. Le XXIème a clairement vu le monde basculer vers une bataille mondiale pour le numérique (Internet, IA, BigData, Exascale …). Un des « graals » de cette course est l’exascale, soit un milliard de milliards, que cela soit en termes d’opérations flottantes (simple, double ou demi précision) ou en termes de capacité de stockage.

La date fatidique se rapproche (2020, 2021 pour les plus proches) et il est plus que temps pour ARISTOTE de faire le point sur cette révolution à venir.

Depuis maintenant 10 ans, de nombreuses communautés se sont penchées sur le problème, au départ la communauté historique du calcul scientifique, puis celle du big data et de l’IA et enfin les sphères politico-économiques, l’exascale devenant un enjeu stratégique et de souveraineté.

Ces années ont permis d’éclaircir la cible de l’exascale, qui n’est plus uniquement focalisée sur le calcul arithmétique en virgule flottante, et nous nous proposons à travers ce séminaire de faire un point sur un certain nombre de sujets, tant du point de vue stratégique (à l’échelle européenne et nationale), que des solutions matérielles qui pourraient être mises en œuvre et surtout l’état des lieux du point de vue de la programmation de telles machines et les enjeux sur les usages et les applications.

Date & Lieu

Jeudi 23 mais 2019
9H00- 18H00

École Polytechnique, 
Amphithéâtre Becquerel
91120 Palaiseau

Tarifs

Participation aux frais en ligne :
• gratuit pour les membres d’Aristote,
• payant pour les non membres : 60 €

Participation sur place : 70€ les non membres

Inscription

Inscription close

Paiement

• en ligne
par chèque
par virement bancaire
(IBAN : FR76 3000 4008 8600 0042 1466 411)

• Règlement sur place uniquement par chèque : 70€
à l’ordre de “Association Aristote”

Une facture acquittée sera envoyée après le séminaire à chaque participant.



Organisateurs

Partenaires

logomembre_cea
logomembre_cnrs

Programme & Actes

9h00-9h15Accueil & café
9h15-9h30Introduction de la journéeThierry Goldmann
Christophe Calvin
CNRS - IDRIS
CEA
9h30-10h00Politique Nationale et Européenne du HPCLaurent CrouzetMESRI
10h00-10h30Un panorama international des initiatives ExascalesStéphane Réquéna
Christophe Calvin
GENCI
Président ARISTOTE
10h30-11h00Pause café
11h00-11h30Panorama des paradigmes de parallélisation pour les architectures ExascalesPierre-François LavalléeCNRS
11h30-12h00Les modèles de programmation associés à la portabilité de performance -
Evaluation de la bibliothèque C++/Kokkos
Pierre KestenerCEA - Maison de la Simulation
12h00-13h30Déjeuner buffet au salon d'Honneur
13h30-14h00Programmation à base de tâches : quels défis pour le passage à l'Exascale ?Raymond NamystLABRI
14h00-14h45«Quelques directions pour les architectures après l'Exascale ? »Marc DurantonCEA
14h45-15h15Pause café
15h15-15h45Du capteur au supercalculateur, pour une meilleure compréhension de la qualité de l'airFrançois BodinIRISA
15h45-16h15Portage sur GPU d'un code Fortran HPC grâce à OpenACCJoeffrey LégauxCERFACS
16h15-16h45Modélisation numérique du climat sur architectures haute performance : quelques succès et défis à l'IPSLThomas DubosX/IPSL
16h45-17h15Modélisation de la turbulence et intelligence artificielleVincent CouaillierONERA
17h15-17h30ConclusionThierry Goldmann
Christophe Calvin
CNRS - IDRIS
CEA

Résumés des Présentations

EuroHPC | L. CROUZET – MESRI
Interv_Laurent Crouzet

EuroHPC permettra à l’UE et aux états membres de l’Union Européenne participants de coordonner leurs efforts et de partager leurs ressources dans le but de déployer en Europe une infrastructure de calcul intensif de classe mondiale et un écosystème d’innovation compétitif en technologies, applications et compétences dans le domaine.

L’entreprise commune mettra en commun les ressources européennes et nationales dans le domaine du calcul haute performance dans le but de :

  • Acquérir et mettre à la disposition des utilisateurs scientifiques, industriels et publics européens une infrastructure de calcul à haute performance de niveau mondial ;
  • Soutenir un ambitieux programme de recherche et d’innovation visant à développer et à maintenir dans l’Union Européenne un écosystème d’excellence du HPC.

L’exposé de Laurent Crouzet fera le point sur les programmes lancés et à venir dans le cadre du Joint Undertaking EuroHPC.

Laurent CROUZET est actuellement Directeur Scientifique Adjoint du secteur “Mathématiques, Physique, Nanosciences, STIC” au sein de Service de la Stratégie de la Recherche et de l’Innovation au Ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation.
Avant de rejoindre le MESRI en 2015, il travaillait au CEA, où il était en charge du Programme Simulation de la Direction des Sciences de la Matière.
Laurent CROUZET est titulaire d’une thèse en Mathématiques Appliquées de l’Université Pierre t Marie Curie et d’un DEA de Mathématiques Appliquées mention « Calcul Parallèle » de l’Université Joseph Fourier.

Un panorama international des initiatives Exascales | S. REQUENA – GENCI et C. CALVIN – Président ARISTOTE
Interv_Stéphane Requena

La course à l’exascale est une compétition internationale. Plusieurs grands pays ont annoncé leur volonté d’atteindre cet objectif dans les 2, 3 années qui viennent et se sont organisés en conséquence.

Au cours de cet exposé, nous ferons un panorama des différentes initiatives internationales (USA, Japon, Chine), tant du point de vue des solutions techniques envisagées que d’un point de vue organisationnel.

Stéphane Requena est Directeur Technique et Innovation à GENCI (Grand Équipement National de Calcul) et membre du « Board des Directeurs » de PRACE (Infrastructure européenne de calcul). A l’issue de ses études en calcul distribué et calcul parallèle il a rejoint tout d’abord CISI comme ingénieur HPC dans le domaine de l’énergie (EDF, CEA) puis IFPEN pour, dans un premier temps, optimiser et paralléliser des applications dans le domaine de l’exploration pétrolière puis mettre en place au sein de la DSI la migration au tout Linux (stations de travail, cluster de calcul). Il a rejoint ensuite GENCI en 2007 juste après sa création et suit notamment l’activité de veille technologique de GENCI, la conduite technique des appels d’offres pour faire évoluer régulièrement les moyens HPC/stockage au sein des 3 centres nationaux (CINES, IDRIS, TGCC) et le développement de nouveaux services.

Il est aussi impliqué depuis sa création en 2010 dans l’infrastructure européenne de calcul PRACE et dans des initiatives/projets européens comme EuroHPC, PRACE-IP, EESI, EXDCI, Mont-Blanc, PPI4HPC ou EPI. 

Christophe Calvin est président de l’Association ARISTOTE. Titulaire d’un Doctorat en Mathématiques Appliquées et d’une Habilitation à Diriger les Recherches en Informatique, il est actuellement responsable du secteur Simulation Numérique, HPC, Données et du Système d’Information à la Direction de la Recherche Fondamentale du CEA.

Panorama des paradigmes de parallélisation pour les architectures exascales | P-F. LAVALLEE – CNRS/IDRIS
Interv_Pierre-Francois Lavallée

Les premières architectures exaflopiques seront disponibles d’ici à deux ans pour les pays les plus avancés. Ces architectures, qui pourront être de plusieurs types (homogènes ou hybrides accélérées), auront cependant toutes en commun le recours à un parallélisme massif multi-niveaux et à une hiérarchisation complexe de la mémoire. Malgré des efforts importants, il n’y a pas eu de révolution comme annoncée des modèles de parallélisation, mais plutôt des évolutions de modèles existant pour les adapter aux spécificités de ces nouvelles machines. Dans cet exposé, nous passerons en revue les différents paradigmes de parallélisation pérennes disponibles, associant portabilité, performance et productivité, ainsi que leurs fonctionnalités associées.

Pierre-Francois Lavallée est docteur en informatique, spécialiste du calcul HPC et de la programmation des architectures massivement parallèles. Depuis 2005, il est le responsable de l’équipe Support aux Utilisateurs de l’IDRIS (www.idris.fr), le centre majeur du CNRS pour le calcul numérique intensif de très haute performance. Ces domaines de compétence incluent notamment l’optimisation et la parallélisation de codes de calcul, le benchmark d’architectures et de bibliothèques scientifiques, la veille technologique dans le domaine du HPC et les activités de formation associées (MPI, OpenMP, Hybride MPI-OpenMP, OpenACC).

Les modèles de programmation associés à la portabilité de performance. Évaluation de la bibliothèque C++/Kokkos | P. KESTENER – CEA/MdS
Interv_Pierre Kestener

Développer ou porter une application de calcul haute performance est une activité qui s’est considérablement complexifiée ces dernières années. La plupart des architectures de processeurs actuels (x86 avec instructions vectorielles INTEL/AMD, processeurs ARM, Intel XeonPhi, GPU Nvidia/AMD, …) présentent des spécificités matérielles qui doivent être prises en compte pour les exploiter efficacement. Gageons que cette situation va perdurer quelques années; la course à l’exascale et à l’efficacité énergétique nous fournira de nouvelles architectures, justifiant l’intérêt actuel pour le développement d’outils et modèles de programmation multi-architectures.

La portabilité de performance désigne l’ensemble des solutions logicielles qui proposent d’écrire de manière générique, avec un haut-niveau d’abstraction, des implantations d’algorithmes parallèles qui masquent autant que possible les détails de l’adaptation à l’architecture matérielle. Les outils de programmation par directive proposés par les compilateurs (OpenMP, OpenAcc) peuvent être considérés comme répondant à cette définition; néanmoins, les évolutions rapides et récentes du langage C++ (surtout la norme C++11) ont permis l’émergence d’outils alternatifs principalement sous forme de bibliothèques C++ comme Kokkos, RAJA, Thrust, et d’autres qui tentent de répondre au besoin d’écrire des codes parallèles efficaces en masquant le plus possibles les spécificités matérielles et en dépassant certaines limitations des solutions par directives (e.g. gestion de la mémoire, conteneurs de données et structures de données adaptées à l’architecture, …).

À travers l’évaluation de la bibliothèque Kokkos (principalement développée à Sandia National Lab, USA), nous illustrerons les concepts haut niveau proposé, et montrerons dans quelle mesure la promesse de portabilité de performance peut-être atteinte.

Ingénieur-Chercheur au CEA/Direction de la Recherche Fondamentale/Maison de la Simulation.
Expert en calcul haute performance, programmation des GPU avec CUDA. Développeur de logiciels de calcul scientifique dans le domaine de la dynamique des fluides notamment pour l’astrophysique.
Intérêt pour les solutions logicielles de portabilité de performance; mise en œuvre de la bibliothèque C++/Kokkos pour des applications multi-architectures (e.g. simulations d’écoulements multiphasiques par la méthode LBM, écoulements compressibles avec schémas d’ordres élevés).

Programmation à base de tâches : quels défis pour le passage à l'exascale ? | R. NAMYST – Université de Bordeaux
Interv_Raymond Namyst

Depuis quelques années, l’utilisation de modèles de programmation à base de tâches s’installe progressivement au cœur de nombreuses applications de simulation numérique. Les capacités d’équilibrage dynamique de charge offertes par les supports d’exécution sous-jacents, la possibilité d’exploiter des dépendances fines entre les tâches, de contrôler l’ordonnancement ou encore d’exploiter de manière relativement aisée les architectures hétérogènes sont parmi les raisons qui expliquent cette percée. Surtout, il existe désormais de nombreux supports d’exécution stables et aboutis, et le parallélisme de tâches fait partie de plusieurs langages de programmation standards.

Dans cet exposé, je reviendrai sur “ce que les supports d’exécution à base de tâches peuvent faire pour vous” et je présenterai aussi ce qu’ils ne savent pas encore bien faire… Dans un paysage architectural où le degré de parallélisme augmente de manière vertigineuse, j’évoquerai quelques défis importants auxquels les programmeurs seront bientôt confrontés.

Raymond Namyst est professeur à l’Université de Bordeaux depuis 2002, et conseiller scientifique auprès de la direction du CEA/DAM depuis 2007.

Ses recherches s’inscrivent dans le cadre du calcul parallèle haute performance. Il a été le responsable scientifique du projet Inria “Runtime” pendant 10 ans, dédié à la conception de systèmes d’exécution hautes performances pour architectures parallèles. Ses principaux domaines de recherche sont l’informatique parallèle, la planification sur des architectures multiprocesseurs hétérogènes (multicœurs, NUMA, accélérateurs) et les communications sur des réseaux à haut débit. Il a dirigé plus de 25 étudiants en thèse et a rédigé plus de 80 articles sur la conception de systèmes d’exécution efficaces. Il a contribué au développement de plusieurs supports d’exécution importants (MPI, OpenMP) et plus particulièrement du logiciel StarPU (http://starpu.gforge.inria.fr).

« Quelques directions pour les architectures après l'Exascale ? » | M. DURANTON - CEA/DRT
Interv_Marc Duranton

Plusieurs challenges se profilent pour les architectures après l’exascale :

  • Une plus grande hétérogénéité des applications, qui, en continuant d’avoir des besoins en simulation de plus en plus poussés, devront s’ouvrir à des charges plus orientées grandes masses de données et vers l’Intelligence Artificielle,
  • Une efficacité énergétique qui devra augmenter de quelques ordres de grandeurs afin d’avoir des systèmes abordables financièrement,
  • Une baisse d’efficacité des nœuds technologiques (fin du « Dennard’s scaling » et potentiellement de la « loi » de Moore),
  • Une complexité de programmation accrue,
  • Une fiabilité intrinsèquement problématique, à cause du très grand nombre d’éléments,
  • Etc…

La combinaison de tous ces challenges remet en doute les approches plus ou moins incrémentales comme l’accroissement du nombre de cœurs par processeurs, de leur fréquence et du nombre de processeurs. Les GPUs sont une réponse actuelle aux challenges, mais ils ne seront pas suffisant pour permettre encore de gagner de la puissance de calcul sur des charges diversifiées. L’ETP4HPC, HiPEAC et BDVA commencent déjà à réfléchir sur des directions prometteuses qui seront rapidement présentées. »

Marc Duranton est membre de l’institut List du Département Recherche et Technologie du CEA (Commissariat à l’Energie Atomique), où il est impliqué dans des réalisations pour l’apprentissage profond (Deep Learning), les systèmes cyberphysiques et les systèmes Hautes Performances (HPC). Auparavant, il a passé plus de 23 ans chez Philips Semiconductors où il a dirigé le développement de la famille des processeurs numériques L-Neuro réalisant des calculs de réseaux neuronaux artificiels. Il était aussi responsable du projet Ne-XVP qui visait la conception automatique du matériel et du logiciel d’un processeur multi-cœurs pour des applications temps réel et pour le traitement vidéo grand public.

Il est aussi responsable de la “vision HiPEAC” sur les systèmes haute performances et embarquées, disponible gratuitement sur http://www.hipeac.net/roadmap.

Du capteur au supercalculateur, pour une meilleure compréhension de la qualité de l'air | F. BODIN - IRISA
Interv_François BODIN

Une meilleure compréhension de notre environnement passe par la mise en place de mesures plus denses, plus fréquentes et l’usage de modèles numériques. Cependant,  le déploiement de solutions effectives pose de nombreux défis, en particulier ceux liés à la logistique des données et à la gestion du flux des tâches sur l’ensemble des composants de la chaîne de traitement et de stockage.

Lors de cette présentation, sur la base d’un exemple concret de mesure de la qualité de l’air, nous abordons les défis à relever pour la conception d’applications de bout-en-bout dans un contexte hétérogènes et distribuées.

François Bodin a occupé différents postes de recherche à l’Université de Rennes I. Sa contribution inclut de nouvelles approches pour l’exploitation de processeurs haute performance dans le calcul scientifique et les applications embarquées.
Il a co-fondé CAPS en 2002 alors qu’il était professeur à l’Université de Rennes I et en janvier 2008 il devient CTO de la société. Il est également à l’origine d’une autre société, TOCEA, qui se concentre sur le contrôle de la qualité du code source et le refactoring.
En 2013, il est de retour à l’Irisa (http://www.irisa.fr) en tant que professeur. Ses activités actuelles portent sur la gestion du cycle des données dans un contexte hétérogène et distribué.

Portage sur GPU d'un code Fortran HPC grâce à OpenACC | J. LEGAUX – CERFACS
Interv_Joeffrey Légaux

Nous allons présenter dans cette session comment nous avons pu étendre une ancienne application fortran à l’utilisation des GPU à travers OpenACC. AVBP (http://www.cerfacs.fr/avbp7x/)  est une application de pointe dans le domaine de la combustion, notre objectif est de conserver son code le plus simple possible pour la communauté qui l’utilise tout en exploitant les architectures modernes ; OpenACC nous apporte la possibilité d’étendre son fonctionnement aux GPU tout en respectant ces contraintes. Nous allons présenter les différentes stratégies que nous avons mis en place afin d’effectuer ce portage, ainsi que les limitations de l’approche utilisant uniquement des directives de compilation et l’impact qu’elle peut avoir sur les performances de certaines sections spécifiques du code.

Joeffrey Légaux a obtenu un doctorat en Informatique (domaine des langages parallèles) de l’Université d’Orléans. Il est aujourd’hui ingénieur de recherche au Centre Européen de Recherche et de Fomation Avancée en Calcul Scientifique (CERFACS) à Toulouse. En tant que membre de l’équipe COOP, il participe à l’optimisation et au portage des codes de calcul haute performance du CERFACS pour les architectures modernes et futures.

Modélisation numérique du climat sur architectures haute performance : quelques succès et défis à l'IPSL | T. DUBOS – X/IPSL

La modélisation numérique du climat est potentiellement gourmande en ressources de calcul : ses besoins sont virtuellement illimités, en termes tant de taille que de de durée des simulations. Après une brève introduction à la modélisation du climat, je retracerai quelques étapes-clés de l’évolution des codes de calcul de l’IPSL, accompagnant l’évolution des architectures de calcul depuis plus de 20 ans. Je décrirai en particulier l’effort récent de refonte d’une partie de la composante atmosphérique, en soulignant le lien entre méthodes numériques et implémentation informatique. Je finirai en soulignant le défi que continue de représenter le passage à l’exascale

Modélisation de la turbulence et intelligence artificielle | V. COUAILLIER - ONERA

Les capacités des nouvelles plates-formes HPC permettant des calculs à très grande échelle, combinées aux développements récents des méthodes de résolution d’ordre élevé en CFD ouvrent des opportunités sans précédent pour générer efficacement des bases de données LES / DNS pour des écoulements de plus en plus complexes et à grands nombres de Reynolds, du moins pour des configurations géométriques encore fondamentales.

Par ailleurs les progrès rapides en intelligence artificielle (IA), utilisant en particulier les algorithmes de type Machine Learning (ML), fournissent des moyens entièrement nouveaux d’extraction d’information caractérisant les grandeurs physiques et leurs interactions à partir de données massives générées par ces calculs LES / DNS.

Nous présenterons les objectifs du projet européen HiFiTURB, débutant en 2019, et qui associera ces méthodologies pour améliorer les modèles de turbulence des codes de calcul CFD utilisés dans le domaine industriel, ainsi que quelques résultats préliminaires de travaux ONERA sur ce thème.

Vincent Couaillier, PhD (UPMC, 1985)
Head of the research unit “Numerical methods in Fluid Mechanics” in the Department “Aerodynamics, Aeroelasticity and Acoustics” of ONERA
Activities in short : CFD for turbulent flows, International cooperation (DLR, USAF, European projects), industrial partnership.