Séminaire : Data Centers, IA, Cloud, High Performance Computing :
Quel impact environnemental ? Comment le mesurer et le contenir ?
Dans un contexte de réchauffement climatique global et d’une généralisation de l’utilisation du numérique, la question de l’empreinte environnementale du numérique est sensible. La plupart des usages actuels du numérique, qu’ils soient grand public, scientifique ou industriel, ont recours à de grandes puissances de calcul et de traitement de données que seuls peuvent fournir à grande échelle des Data Centers.
Au-delà des chiffres bruts de consommation de grands Data Centers, le problème est plus complexe et plus global et concerne tout le cycle du numérique et de son empreinte : matières premières à la base des composants, recyclabilité des composants, consommation en eau et en énergie tout le long du cycle de vie, économies environnementales apportées par l’usage du numérique…
Parmi les thèmes abordés lors de cette journée :
Christophe CALVIN CEA |
Jean LATIERE 🌐 OptimNow |
DATE & LIEU
13 avril 2023
9h00 - 18h15
Ecole Polytechnique
Route de Saclay
91128 PALAISEAU Cedex
9h15 – 9h40
Introduction au Numérique Responsable alias Sustainable IT
Emmanuel Laroche
Airbus
Institut du Numérique Responsable
9h40 – 10h05
Retour apaisé sur l’énergie du numérique et sa médiatisation
10h05 – 10h30
Vers une électronique soutenable : enjeux et perspectives
10h30 – 10h45
10h45 – 11h10
Évaluer les impacts environnementaux du numérique : Open source contre opacité
11h10 – 11h35
Vers une prise en compte des enjeux énergétiques du numérique pour la génomique
NVIDIA
DENERGIUM
11h35 – 12h00
Impact environnemental des Large Language Models
12h00 – 13h00
13h00 – 13h25
Impact environnemental des grands modèles AI de langage (LLM)
13h25 – 13h50
Evolution de la mesure de l’énergie dans les infrastructures de simulation numérique
Bruno Lecointe
13h50 – 14h15
L’estimation de l’impact carbone et énergétique lors d’une visite sur un site web : focus sur l’impact côté utilisateur
Guillaume Lochon
14h15 – 14h40
Évaluation du bilan carbone d’une machine de calcul nationale
Gabriel Hautreux
CINES
14h40 – 14h55
14h55 – 15h20
L’électronique de spin (spintronique) : une solution d’avenir pour un numérique frugale
15h20 – 15h45
Stockage des données numériques sur ADN synthétique : avancées technologiques et challenges
15h45 – 16h10
Vers un avenir numérique durable : le potentiel du stockage bio-sourcé sur ADN
Erfane Arwani
Biomemory
16h10 – 16h35
Feuille de route numérique responsable de Malakoff Humanis
16h35 – 17h00
Cloud et sustainability : The path to 24/7 carbon-free energy
17h00 – 17h25
Jean Zay : exemple d’un supercalculateur particulièrement efficient et éco-responsable
17h25 – 17h40
ECLAIRION : Calculer plus vite pour un monde meilleur
Charles Huot
ECLAIRION
17h40 – 17h55
ACTE DU SÉMINAIRE :
Matin – Partie 1
Après-midi – Partie 2
Introduction au Numérique Responsable alias Sustainable IT | Emmanuel Laroche
Les services numériques bénéficient d’une image « dématérialisée »? Si les impacts environnementaux et sociétaux sont bien éloignés des utilisateurs finaux, ils sont cependant réels et diversifiés.
De manière objective, quels sont ces impacts ? Comment les quantifier ? Et quels sont les leviers d’actions à la portée des organisations afin de les réduire, dans le but d’assurer un plus haut degré de résilience ?
Emmanuel LAROCHE (Sustainable IT Manager chez Airbus, et directeur adjoint de la communication de l’Institut du Numérique Responsable, expert certifié de l’INR).
Retour apaisé sur l'énergie du numérique et sa médiatisation | Pierre Beyssac
Le numérique est-il en train de tuer la planète à feu vif ? Devons-nous d’urgence nous abstenir de regarder des vidéos de chats et d’envoyer des courriels rigolos ? Nous allons profiter de ces quelques instants avant l’apocalypse annoncée pour y réfléchir posément en replaçant quelques ordres de grandeur.
Pierre Beyssac, après une formation d’ingénieur en informatique et électronique, a passé sa carrière dans le numérique. Il a co-fondé Gandi.net (noms de domaine), Eriomem.net (stockage et noms de domaine) et a également été responsable système et réseau à Télécom ParisTech.
Vers une électronique soutenable : enjeux et perspectives | Thomas Ernst
L’impact du numérique devient un sujet d’actualité dans un contexte ou la sobriété énergétique est un enjeu écologique de premier plan. Le rêve d’un monde virtuel se heurte à la matérialité des réseaux, serveurs, et objets connectés demandant pour leur production et leurs usages des matériaux rares et une quantité d’énergie croissante. Les progrès énormes depuis 50 ans en termes d’efficacité énergétique sont absorbés par des développements applicatifs spectaculaires mais énergivores. Par ailleurs la miniaturisation et la complexité des circuits va atteindre des limites physiques, mais aussi de fiabilité et de sécurité. Plus généralement, il est urgent de repenser l’électronique afin d’aller vers une conception plus durable, de la mine à la production et à la conception des logiciels et profiter ainsi du potentiel énorme du numérique dans les nombreux secteurs. Parmi ces derniers citons la meilleure gestion des ressources ou l’élaboration et la diffusion des connaissances. Une conception globale, du matériel au logiciel et à l’application, pourrait faire gagner plusieurs ordres de grandeur en efficacité énergétique. Enfin, si l’Europe veut être acteur de ce changement elle doit réinvestir le secteur et créer ses propres champions.
Thomas Ernst est directeur scientifique au CEA- LETI. Il est responsable de la stratégie et des partenariats de recherche à long terme. Il a obtenu son diplôme d’ingénieur en électronique, son doctorat à Grenoble INP et son habilitation à diriger les recherche (France) dans le domaine de la microélectronique. De 1997 à 2000, il a développé avec STMicroelectronics et le CNRS la caractérisation le la modélisation avancée du FD-SOI. Il a ensuite rejoint le CEA-LETI où il a dirigé différents projets de recherche avec l’industrie et une startup. Il a dirigé l’équipe de développement des premiers nanofils et nanofeuilles CMOS empilés en 3D démontrés au niveau mondial. M. Ernst est l’auteur ou le coauteur de plus de 190 articles de revues techniques et communications lors de conférences internationales. Il est auteur ou coauteur de 20 brevets. Il est ou a été membre de différents comités internationaux de conférences. Il a reçu une bourse de recherche du Conseil européen de la recherche (ERC) pour mettre au point des systèmes intelligents intégrés multiphysiques.
Évaluer les impacts environnementaux du numérique | David Ekchajzer
Les évaluations ont contribué de manière significative à la prise de conscience des impacts causés par le numérique. Bien que vecteurs efficaces de sensibilisation, ils ont attiré l’attention sur des actions négligeables comme la réduction des emails, un sujet récurrent dans les discussions sur le numérique et l’environnement. Si une évaluation peut orienter la compréhension du sujet du grand public jusqu’aux politiques, on peut apprécier sa dimension politique. Pour faire face aux impératifs démocratiques, nous vous proposons de considérer la mesure de l’impact de l’usage du numérique comme un bien commun au service de la transparence, tant dans la démarche que dans les résultats. Comment appliquer ces concepts à la mesure des impacts environnementaux ? Quelles limites et quelles perspectives à court et long terme pour cette approche ?
David Ekchajzer développe un projet de thèse dans une démarche de recherche intervention. dans le cadre académique, il analyse les influences réciproques entre les méthodes d’analyse des impacts environnementaux directs et indirects du numérique, et les dynamiques organisationnelles des entreprises productrices de numérique. Dans le cadre industriel, il accompagne les projets d’Hubblo dans une démarche de recherche et développement ouverte alliant open data et open source en faveur d’une quantification plus transparente. Il participe également au groupe de travail Boavizta ou il participe au développement des outils open source permettant de faciliter la démarche d’évaluation pour les organisations.
Vers une prise en compte des enjeux énergétiques du numérique pour la génomique | Christophe Battail
Depuis la publication en 2003 du premier séquençage du génome humain, les évolutions technologiques des séquenceurs ADN ont bousculé la recherche en biologie en la dotant d’une capacité à générer rapidement de grandes quantités de données. Les enjeux liés à la gestion, la transformation et la sauvegarde de cette donnée volumineuse, confidentielle et sensible ont conduit à la création d’un écosystème numérique complexe.
Nous nous intéresserons au cours de cette présentation aux caractéristiques de l’écosystème numérique pour la génomique : ses données, ses outils informatiques, ses infrastructures de calculs, et à de récents travaux de recherche s’intéressant aux enjeux énergétiques le concernant.
Christophe Battail est chercheur CEA dans le laboratoire Biosciences et Bioingénierie pour la Santé de l’Institut de Recherche Interdisciplinaire de Grenoble. Il dirige le groupe de recherche Modal, au sein de l’équipe Génétique et Chémogénomique, développant des méthodologies à l’aide d’algorithmes de bioinformatique, de biologie des systèmes et d’apprentissage machine appliquées aux domaines de la médecine personnalisée et de la science des organoides. Il est responsable de groupes de travails dans les projets Européens KATY et CANVAS en oncologie de précision. Il est également vice-président du Comité scientifique et éthique du Collecteur et Analyseur de Données du Plan France Médecine Génomique 2025.
Impact environnemental des Large Language Models | Julien Simon
Cette session porte sur l’impact environnemental du deep learning et des « large language models » (LLM), en se concentrant sur le modèle BLOOM développé par Hugging Face. Les LLM tels que BLOOM révolutionnent de nombreux domaines de l’apprentissage automatique, mais leur entraînement nécessite une grande quantité de données et de puissance de calcul, ce qui a un impact environnemental important.
Pour commencer, nous présenterons rapidement Hugging Face avant d’examiner la création de BLOOM et son impact. Puis, nous discuterons des différentes approches qui peuvent être utilisées pour minimiser l’empreinte carbone des modèles de deep learning, telles que l’utilisation de sources d’énergie renouvelable, la compression de modèles et l’optimisation de l’efficacité énergétique.
Julien est actuellement Chief Evangelist chez Hugging Face. Il a précédemment passé 6 ans chez Amazon Web Services où il était Global Evangelist AI/ML. Avant de rejoindre AWS, Julien a occupé pendant 10 ans les postes de CTO / VP Engineering dans des startups à grande échelle.
La mesure d'impact environnemental de l'entraînement d'un modele AI-ML | Vincent Poncet
Les modèles de machine learning sont de plus en plus présents dans les systèmes informatiques et avec des capacités de gestion de nouvelles tâches de plus en plus complexes. Ces modèles requièrent une quantité croissante de puissance de calcul, et donc se pose la question de leur empreinte environnementale.
Présentation :
Le monde académique a publié différentes études sur l’impact des modèles de langage de grande taille avec des estimations de consommation électrique et d’émissions de gaz à effet de serre considérables. La plupart de ses estimations sont basées sur des extrapolations de modèles plus petits entraînés sur des infrastructures anciennes. Les évolutions récentes à la fois sur l’efficience des modèles, l’infrastructure physique et l’approvisionnement en énergie bas-carbone mises en œuvre chez Google nous permettent de réduire considérablement ces estimations, pour la plupart de plusieurs ordres de grandeur.
Vincent Poncet a rejoint Google Cloud en août 2018, en tant que Customer Engineer, sur le secteur Finance. Vincent a 20 ans d’expérience passés entre différents cabinets de conseil, et éditeurs, à développer son expertise de la gestion de la donnée, du big data, et des bases de données. Vincent a très vite découvert l’étendue des actions de réduction d’impact de Google, s’y est intéressé et formé pour devenir expert pour expliquer ces actions auprès de ses clients français et européens. Vincent travaille aussi avec les équipes produit de reporting de l’empreinte carbone de Google pour ajouter plus de transparence sur l’impact environnemental lié à l’utilisation du Cloud.
Évolution de la mesure de l'énergie dans les infrastructures de simulation numérique | Bruno Lecointe et Jean-Olivier Gerphagnon (JOG)
Les infrastructures de simulations numériques, dites hautes performances (HPC, AI, HPDA…), ont toujours été consommatrices en énergie. Dans le contexte actuel, la mesure, le contrôle et l’optimisation des aspects énergétiques sont (re)devenus des éléments clés pour maitriser les coûts d’exploitation et l’impact environnemental.
Cette présentation reprend l’évolution des méthodes de collecte et d’utilisation des données liées à la consommation dans les infrastructures de simulation des dix dernières années.
Des idées sur l’évolution de ces mesures et les besoins auxquelles elles tendent à répondre seront également présentés afin de donner des éléments d’amélioration de l’efficacité énergétique et de l’empreinte carbone des calculateurs actuels et futurs.
Bruno LECOINTE is ATOS Group VP Business support HPC AI Quantum, where he leads the pre-sales, benchmarkers, centers of excellence and dealdesk. Bruno has more than 22 years of experience on HPC business and technical topics, with a strong focus on customer satisfaction. He started in year 2000 with Alinka, a deployment and end-to-end management software for HPC systems. Then joining NEC to initiate and grow the scalar cluster Western Europe business, he moves to lead successfully NEC HPC vector and scalar business for Western Europe and Middle east. Bruno is a passionate about outdoor activities, enjoying hiking or racing offroad motorbikes. Of dual French and Spanish nationality, he loves to travel, meet people and discover new cultures. He is inspired daily by her women and their two daughters.
Jean-Olivier Gerphagnon (JOG) is Atos Principal Software Architect and Distinguished Expert, where he leads the global software strategy. JOG has more than 20 years of experience in HPC solution design and on key technical components. He was part of the launch of Bull’ HPC project in 2003 and continued in engineering for about 12 years in various technical positions. Then joining business operation as principal solution architect for largest HPC tenders for about 6 years. JOG is also deeply involved in transversal topics such as cyber security solution for HPC as also in Atos decarbonation strategy
L'estimation de l'impact carbone et énergétique lors d'une visite sur un site web : focus sur l'impact côté utilisateur | Guillaume Lochon
L’objectif de cette présentation est de retracer comment Greenmetrics cherche à approcher le plus possible l’estimation d’impact d’un visiteur sur un site web.
La présentation se découpe en deux axes :
– L’approche théorique en condition de laboratoire : Une mesure poste à poste en considérant des paramètres physiques : CPU, décharge de batterie, consommation de data 4G / 5G/ Wifi, etc..
– Une réalité business évidente : Un site web génère des milliers d’interactions chaque heure et les conditions de laboratoire ne suffisent plus. Il faut se tourner vers du machine learning pour approcher ces calculs. Dans ses choix, Greenmetrics a été entouré de chercheurs de l’INRIA et d’ingénieurs en computer science, nous avons mis au point un modèle.
Ce modèle prend en compte l’analyse comportementale des visiteurs avec ses spécificités : type de contenus chargés (pages visitées & parcours utilisateurs), énergie requise par ce chargement, ACV des appareils utilisés pour réaliser cette transaction, réseaux utilisés , mix énergétique des visiteurs, etc..
Guillaume Lochon est diplômé en mathématiques appliquées et statistiques à l’université de Bordeaux. Pour compléter sa formation de Data Scientist, il continue ses études au travers d’un Master spécialisé Data & IA à HETIC Paris, ce qui lui permet d’approcher de manière concrète l’univers du web .
Il est depuis 1 an Lead Data Scientist chez Greenmetrics, où ses travaux s’orientent autour de méthodologie d’estimation d’impact énergétique et carbone du chargement d’un site web ainsi que des actions à mettre en œuvre pour les réduire.
Ces travaux de recherche ont notamment été réutilisés par l’INRIA Lille et ont fait l’office d’une revue critique par le Bureau Veritas.
Évaluation du bilan carbone d'une machine de calcul nationale | Gabriel Hautreux
Le CINES a entrepris, en 2022, une démarche d’évaluation du bilan carbone de son supercalculateur Occigen allant de la fabrication du matériel jusqu’à la fin de son activité mi 2022.
Les résultats de cette étude seront présentés et mis en perspective avec les technologies exascale déployées aujourd’hui (telle que la technologie HPE-Cray utilisée sur Frontier aux US et sur Adastra au CINES depuis fin 2022). Les incertitudes sur ces résultats seront évoquées et des leviers d’amélioration du bilan carbonne des superculateurs seront proposés.
Gabriel Hautreux worked as an HPC application expert at CINES (French National Computing centre) and INRIA, between 2014 and 2015, and was a member of the PRACE program to port and optimize applications on leading edge architectures.
From 2016 to 2019, he worked as an application expert in GENCI’s “Technological watch group” and was in charge of the French High Level Support Team (HLST). He joined CINES as a permanent member in late 2019.
He is now in charge of the HPC department at CINES and managed the deployement of the leading edge cluster Adastra, #11 at TOP500 and #3 at GREEN500 in November 22.
His current activities aim to enable the research community to leverage application using exascale technologies, as well as increasing the energy efficiency of applications and reducing the global energy and carbon footprint of HPC center.
He is a specialist in exascale architectures, new development paradigms (OpenMP/OpenACC) and energy efficiency in HPC.
L’électronique de spin (spintronique) : une solution d’avenir pour un numérique frugale | Dr. Kevin Garello
L’explosion de la croissance du « monde numérique » a un coût environnemental qui ne peut plus être ignoré et les projections montrent qu’en 2030, il sera responsable de 20 à 30 % de la consommation d’électricité mondiale ! Le changement nécessaire de paradigme, imposant de revoir nos priorités pour viser de véritables ruptures conceptuelles, devra positionner la frugalité comme un critère de performance essentiel à atteindre, au même titre que la puissance de calcul, la rapidité, la miniaturisation ou le coût… Dans ce contexte, et celui d’une demande croissante d’applications à forte intensité de données, l’architecture omniprésente de l’ordinateur de von Neumann souffre de limitations de débit dues à des taux de transfert de mémoire inférieurs à la vitesse du CPU, ainsi que du coût énergétique du transfert de l’information. Ce problème peut être atténué par des architectures et des nanodispositifs innovants permettant un plus haut degré de localité dans le traitement de l’information, brouillant les lignes entre les fonctions de mémoire et de calcul, dépassant les limites des paradigmes de logique booléenne purement basés sur la charge et/ou conventionnels.
Pour adresser ces problématiques de la microélectronique embarquée et du calcul basse consommation, l’introduction de mémoires non volatiles (NVM) dans la hiérarchie mémoire est activement explorée (Ox-, PC-, M-RAM). Cependant, le compromis entre l’énergie de programmation, la vitesse et l’endurance empêchent la plupart de cess technologies non-volatile émergentes de monter dans la hiérarchie des mémoires. La spintronique, qui exploite le spin de l’électron en plus de sa charge, répond à ces besoins et apparaît comme une solution d’avenir. En effet, après avoir « révolutionné » le domaine du stockage de données et des capteurs, la spintronique offre aujourd’hui des solutions NVM, la MRAM, qui combinent vitesse du processeur, endurance, densité et compatibilité des tensions CMOS.
Au cours de cette présentation, je passerai en revue certaines avancées récentes dans le domaine de la recherche sur les composants MRAM. J’illustrerai comment elles peuvent, à différents niveaux, contribuer à l’avènement de systèmes informatiques plus efficaces sur le plan énergétique, et pourquoi elles présentent une opportunité unique d’explorer de nouveaux concepts basés sur les architectures neuromorphiques et le calcul probabiliste – ces concepts sont actuellement explorés dans le cadre du PEPR-électronique. Ces opportunités pourraient être cruciales pour des secteurs stratégiques de l’économie française comme l’industrie automobile ou des marchés comme la défense, le nucléaire et l’aérospatial, notamment grâce à la robustesse des dispositifs spintronique aux rayonnements ionisants.
Dr. Kevin Garello est un ingénieur de recherche CEA, travaillant au laboratoire Spintec depuis juin 2020, expert dans le domaine du nanomagnétisme et de la spintronique pour les mémoires magnétiques. Il a activement contribué à la découverte de la MRAM à couple spin-orbite (SOT) et à sa montée en maturité technologique. En 2010, il a participé à établir pour la première fois la possibilité d’utiliser les SOT comme mécanisme d’écriture et a démontré le concept de SOT-MRAM. En 2013, il a développé à l’ETH-Zurich une activité dédiée à la caractérisation et à la compréhension du SOT qui a permis de révéler des phénomènes physiques inattendus découlant du SOT. En mars 2016, il a rejoint l’IMEC (Belgique). Il a notamment démontré l’intégration à grande échelle de SOT-MRAM en utilisant des processus compatibles CMOS et une nouvelle approche d’intégration manufacturable qui permet d’écrire de manière fiable des cellules SOT-MTJ sans l’aide d’un champ magnétique externe. Il est co-auteur de plus de 50 articles scientifiques (H-index = 24, 5600 citations) et de 12 brevets. Il est également organisateur du MRAM Global Innovation Forum, membre du comité scientifique de l’International Memory Workshop (IMW), et chef adjoint du WP2 du Graphene Flagship (Spintronics).
Stockage des données numériques sur ADN synthétique : avancées technologiques et challenges | Marc Antonini
Les données numériques créées sur la planète sont en augmentation permanentent : 90 % d’entre elles ont ainsi été générées depuis ces deux dernières années, entraînant une consommation exponentielle de ressources rares et d’énergie, sans garantie absolue quant à l’intégrité et la pérennité de leur stockage. À noter que 70 % des données sont « froides » c’est-à-dire que le besoin d’y avoir recours n’existe pratiquement pas sur une relativement longue période (10 ans ou plus). Le stockage des données numériques devient donc un défi pour l’humanité. Des études récentes suggèrent l’utilisation de la molécule d’ADN comme un nouveau candidat prometteur qui pourrait contenir théoriquement 215 pétaoctets dans un seul gramme. Toute information numérique peut être synthétisée en ADN in vitro et stockée dans de minuscules capsules spéciales qui proposent une fiabilité de stockage de plusieurs centaines d’années. La séquence d’ADN stockée peut être récupérée à tout moment à l’aide de machines spéciales appelées « séquenceurs ». Dans cette présentation, nous parlerons de l’état de l’art en matière de stockage de données ADN pour l’encodage efficace de données numériques dans un code quaternaire constitué des 4 bases ADN A (Adénine), T (Thymine), C (Cytosine) et G (Guanine). Nous présenterons également une nouvelle solution prometteuse de codage d’images numériques dans de l’ADN synthétique que nous avons développée au laboratoire I3S et qui prend en compte les contraintes liées au stockage des données sur ADN tout en optimisant le compromis qualité de compression et coût de synthèse.
Mots-clés : Codage d’images, stockage sur ADN synthétique, compression
Marc Antonini est Directeur de Recherches au CNRS. Il dirige l’équipe de recherche MediaCoding au laboratoire I3S à Sophia Antipolis. Il a occupé de nombreux postes de direction dans la communauté de la théorie du signal. Il est à l’origine du projet européen « OligoArchive » sur la question du stockage de l’information sur l’ADN. Depuis octobre 2021, il est le directeur de programme du PEPR Exploratoire « MoleculArXiv » (20M€ sur 7 ans – France 2030) sur le stockage massif de données sur l’ADN et les polymères artificiels. Marc Antonini est depuis 2020 le président du groupe de travail international JPEG DNA pour la définition d’une norme de codage d’image spécifique au stockage sur ADN synthétique.
Il est co-fondateur et conseiller scientifique de Cintoo une société qu’il a créée en juillet 2013, spin-off de l’Université Côte d’Azur et du CNRS. Cintoo développe des technologies et des solutions pour gérer et exploiter les données 3D provenant des dispositifs de capture de la réalité dans le cloud. Il est aussi co-fondateur de la Start-Up PearCode créée en octobre 2022, spin-off de l’Université Côte d’Azur et du CNRS, dont l’activité est l’écriture de données numériques sur ADN synthétique.
Vers un avenir numérique durable : le potentiel du stockage bio-sourcé sur ADN| Erfane Arwani
Le stockage d’ADN offre une solution innovante pour réduire l’empreinte environnementale des données numériques grâce à sa densité, durabilité et fiabilité supérieures. Face à la croissance exponentielle des données, les méthodes traditionnelles présentent des défis environnementaux, tels que la consommation d’énergie et la production de déchets électroniques. Biomemory, avec son DNA Drive, propose une alternative bio-sourcée pour minimiser cet impact. Cette présentation abordera les avantages et les applications potentielles de l’ADN en tant que support de données, encourageant les participants à envisager ces solutions pour un avenir numérique plus durable. Les développements récents et les perspectives d’avenir dans le domaine du stockage d’ADN seront également abordés, soulignant l’importance de la recherche et de l’innovation pour répondre aux enjeux environnementaux actuels.
Erfane Arwani, ingénieur en informatique spécialisé en infrastructure de datacenter, possède plus de 10 ans d’expérience en tant qu’entrepreneur dans le secteur des startups. Il a fondé et dirige actuellement Biomemory, une spin-off du CNRS et de Sorbonne Université, qui travaille sur le développement du premier serveur de stockage sur ADN.
Biomemory a levé 5 millions d’euros auprès d’investisseurs tels que BPI, eureKARE et Octave Klaba, fondateur d’OVH. La vision de Biomemory est d’être la première entreprise à placer un serveur sur ADN en datacenter, contribuant ainsi à un avenir numérique plus durable et respectueux de l’environnement.
Feuille de route numérique responsable de Malakoff Humanis | Marie-Anne Clerc
MH est engagé pour son nouveau plan d’entreprise, Smile 2026, sur une ambition RSE forte ; dans ce contexte la DSI a réalisé une mesure de son empreinte carbone en 2022 pour identifier les leviers d’actions qui permettront d’en réduire significativement le poids, à court terme comme à long terme. Dans ce contexte, le partage d’information dans des logiques open source au sein de la communauté IT parait une évidence, mais qui a du mal à prendre forme…
Après 23 ans passés dans le service public au sens large, Marie Anne Clerc est désormais DSI de Malakoff Humanis depuis 2 ans ; au sein de ce GPS elle pilote une DSI au service de la transformation du business du monde de l’assurance, avec trois défis à relever avec son équipe : l’orientation client, la maitrise des couts de run dans une démarche lean, et l’agilisation du SI. Par conviction personnelle mais également en alignement avec la démarche d’entreprise poursuivie par le groupe MH, elle déploie au sein de la DSI les enjeux RSE et notamment Green IT.
Cloud et sustainability : The path to 24/7 carbon-free energy | Anne-Elisabeth Caillot
Retour sur les ambitions et objectifs environnementaux de Google, sur les mesures et les innovations que nous mettons en place pour gérer et réduire continuellement l’empreinte environnementale de nos Datacenter et Infrastructures.
Présentation : La durabilité des produits et des équipements numériques est une réalité stratégique et une valeur fondamentale de la stratégie Google au cœur de la gestion de nos infrastructures depuis les premières solutions.
Cette présentation sera l’occasion de revenir sur ces indicateurs officiels, et de comprendre comment ils sont appliqués chez Google aux niveaux mondial et local, et utilisés pour suivre et accélérer la réduction de l’empreinte environnementale de nos data centers.
Nous reviendrons sur les résultats existants ainsi que les premiers retours d’expériences, mais aussi sur l’évolution de nos stratégies, des innovations mises en place et celles encore en incubation pour atteindre ces objectifs. Nous partagerons aussi notre approche des partenariats nécessaires et les outils & méthodologies mis à la disposition de nos clients pour accompagner l’approche globale avec notre écosystème.
Anne-Elisabeth Caillot a rejoint Google Cloud en août 2020, en tant que Customer Engineer Manager, chargée plus spécifiquement des sujets de Modernisation d’Infrastructure. Après des études en organisation et réseaux informatiques, Anne-Elisabeth a conjugué tout au long de sa carrière-conseil, gestion et disponibilité des données et de l’infrastructure, aussi bien au sein d’entreprises de conseil et d’intégration comme Accenture, Sogeti ou Arrow et de spécialiste de la donnée comme NetApp.
Anne-Elisabeth s’attache donc à répondre aux nouveaux enjeux du cloud, de l’infrastructure et de la gestion des données, en intégrant transformation numériques et impératifs environnementaux.
Jean Zay : exemple d'un supercalculateur particulièrement efficient et éco-responsable | Rafael Medeiros
Installé mi-2019, le supercalculateur hybride accéléré Jean Zay, avec 36,8 PFlop/s crête, est encore aujourd’hui parmi les plus puissants d’Europe. Mais outre sa puissance, il se distingue par un caractère éco-responsable affirmé, limitant de fait l’empreinte environnementale des simulations ou entrainements qu’il exécute. Dans cette présentation, nous expliciterons les trois raisons majeures qui expliquent cette spécificité, intrinsèque à l’architecture du supercalculateur et à l’infrastructure technique qui l’héberge :
- L’architecture interne du nœud de calcul utilisant massivement des accélérateurs de type GPU,
- Le système de refroidissement à cœur par eau tiède (de type DLC),
- La récupération de la chaleur fatale produite par Jean Zay par le réseau d’eau tempérée de l’EPAPS ainsi que pour chauffer le bâtiment de l’IDRIS.
Rafael Medeiros, Ingénieur de recherche CNRS à l’IDRIS, est l’adjoint du responsable système exploitation, en charge des infrastructures techniques et de la gestion de la salle d’ordinateurs. Il a une expérience de plus de 10 ans dans le domaine de l’urbanisation et de l’optimisation des salles machines et des infrastructures techniques critiques et dimensionnantes (électricité, climatisation) d’un centre national. Il travaille de concert avec le GDS EcoInfo et Labos 1.5 sur le calcul de l’empreinte carbone de l’infrastructure nationale Jean Zay.
ECLAIRION : Calculer plus vite pour un monde meilleur | Charles Huot
Eclairion ouvrira, à l’automne prochain, un campus HPC (haute performance de calcul) sécurisé, flexible et évolutif, sur un terrain de 4 hectares à Bruyères-le-Châtel dans l’Essonne. Sa capacité à terme représentera une véritable avancée dans l’offre française et européenne d’infrastructures dédiées au HPC.
Unique en son genre, ce centre hébergera en colocation des calculateurs haute densité au sein de modules containers, qui s’adapteront aux caractéristiques et aux exigences technologiques grandissantes de ses clients. Eclairion répondra aux besoins digitaux et informatiques sans cesse en évolution des grands groupes, mais aussi des PME et des start-up. Toutes ces entreprises sont conscientes et soucieuses de préserver la souveraineté numérique sur leur territoire dans tous leurs domaines d’activités, comme la recherche médicale, spatiale, l’environnement, l’automobile, l’aéronautique, les énergies nouvelles, les médias, la simulation numérique, le deep learning, le machine learning, l’intelligence artificielle au sens large.
Charles HUOT est un entrepreneur de l’Innovation et des DATA avec plus 30 années d’activité opérationnelle dans le management des environnements Data & Logiciels High Tech.
Aujourd’hui il dirige la société People in the Sun qui accompagne les organisations dans leur parcours d’exploitation et de valorisation des données. C’est dans le cadre de l’une de ces missions qu’il collabore à l’entreprise ECLAIRION pour le développement de centre de données de collocation haute densité en région Parisienne. En 2020, il a co-fondé, HYDRIA pour le développement de projets identiques en Amérique du Nord, et dont il a pris la présidence.
Charles est également président du plus grand pôle de compétitivité Français, Cap Digital, association qui anime sur la région Ile de France et Haut de France, les acteurs économiques et de la recherche dans l’innovation digitale collaborative.
Charles est membre de l’Institut des Sciences Cognitives de l’Université du Québec à Montréal, chargé d’enseignement à l’Ecole de Guerre Economique dans le domaine du Big Data et de l’Intelligence Artificielle et depuis octobre 2020 membre du conseil d’administration de l’Institut Géographique National.