A la croisée des révolutions numériques

Generic selectors
Exact matches only
Search in title
Search in content
Generic selectors
Exact matches only
Search in title
Search in content
Home 5 Évènement 5 Séminaire : Productivité dans le développement logiciel avec LLM : au-delà des limites, avec Go et d’autres langages

Séminaire : Productivité dans le développement logiciel avec LLM : au-delà des limites avec Go et d’autres langages

L’impact des LLM (Large Language Model) est sensible dans le domaine du développement informatique.
 
Le langage Go, dont l’intérêt est validé par des réussites industrielles telles que Docker et Kubernetes, connaît un nouvel essor avec Ollama, une plateforme permettant de déployer des LLM. 
 
L’apport des LLM dans la génération de code décuple la capacité productive du développeur et marque un tournant dans le développement d’applications et de backends.
 
On peut imaginer cet impact comme celui d’une nouvelle révolution industrielle.
 
Nous allons voir comment le langage Go est un exemple typique de la nouvelle informatique adossée à l’IA et aux LLM.

COORDINATION SCIENTIFIQUE

   

Jean-Michel Batto

CEA

Fred Ménez

Scalera

DATE & LIEU

28 novembre 2025

9h00 - 17h30

Ecole Polytechnique

Amphi Becquerel

Route de Saclay
91128 PALAISEAU Cedex

Ecole Polytechnique

SITUATION

Organisateurs et partenaires

PROGRAMME

09h00 – 09h50

Accueil & café

9h50 – 10h00

Présentation de l’association

10h00 – 11h10

Productivité, codage et LLM : un nouveau koan ?

Thierry GOUBIER

CEA

11h10 – 12h00

La transformation de la conception logicielle par le GenAI

Vincent DESCLAUX

PALO IT

12h00 – 12h45

Déjeuner buffet

12h45 – 13h45

Powercoding avec les LLM : du prompt à la valeur produit

Jean-Yves CAMIER

13h45 – 14h35

The Voice: conversation à voix haute avec Gemini Live API, et un backend Go

Valentin DELEPLACE

Google Cloud

14h35 – 15h30

Étendre les capacités des LLM avec Go : mise en œuvre d’un « RAG » et du « Tool Calling »

Maximilien ANDILE

Développeur freelance

15h30 – 15h50

Pause café

15h50 – 16h20

Exploiter les Textes Cliniques avec les LLMs : cas d’usage sur le suivi des cancers

Bastien RANCE

Université Paris Cité

16h20 – 16h50

IA Souveraine – Déploiement de RAG via modèles locaux

Ewen QUIMERC’H

Theodo

16h50 – 17h30

Programmer de la musique avec Go

Julien SELLIER

Scaleway

17h30 -18h00

Conclusion

Résumé de la présentation

Matin – Partie 1

Après-midi – Partie 2

Productivité, codage et LLM : un nouveau koan ? | Thierry GOUBIER

Programmer est une composante essentielle de nos systèmes d’information, ordinateurs et électronique — exprime de manière intéressante le fait que nous « parlons » à nos machines. Ces « langues », nos langages de programmation, servent à nous rendre productif ; maintenant, face à des intelligences artificielles qui sont basées sur le langage (les grands modèles de langages ou LLMs), qu’est-ce que cela peut signifier ? Un petit tour sur nos fondements, une histoire de notre savoir et par extension ce que signifient ces nouvelles IAs. Bien entendu, comme il s’agit d’un Koan, il y aura des contradictions !

Thierry Goubier, expert, responsable du programme CALCUL HPC au département des systèmes et circuits intégrés numériques, a été attaché scientifique à l’ambassade de France à Jakarta et ingénieur de recherche au CEA. Il a l’experience de la diplomatie d’influence en science et les projets européens, en recherche et innovation. Sa spécialité est la transversalité et les architectures transverses, ainsi que, bien entendu, les langages de programmation.

La transformation de la conception logicielle par le GenAI | Vincent DESCLAUX

L’IA générative transforme profondément la manière dont nous concevons, construisons et délivrons des produits numériques. Après deux années d’expérimentations et de déploiements intensifs, un constat s’impose : l’IA ne se contente pas d’accélérer les équipes, elle redéfinit entièrement le Product Delivery Life Cycle.

Nous verrons comment les méthodes traditionnelles — du waterfall à l’agile — atteignent aujourd’hui leurs limites face à une technologie capable de coder, documenter, analyser et concevoir à une cadence jamais vue. J’exposerai la méthodologie Gen-e2, un cadre opérationnel AI-first qui combine artefacts techniques et nouvelles façons de travailler.
À travers plusieurs cas concrets (compagnies aériennes, institutions financières, maisons de luxe…), je partagerai des résultats mesurables,
Au-delà des chiffres, j’aborderai les transformations culturelles et organisationnelles : passage de la fabrication à la supervision, montée en puissance du capital cognitif, évolution des rôles, nouvelles exigences de pilotage, et défis d’adoption auxquels les organisations font face.

After 15 transformative years in Asia (Singapore, Hong Kong, and Shanghai), I’ve returned to Europe to continue shaping the future of digital and technology.

I’ve founded and led companies across IT consulting, education, and F&B; each venture a chance to build from the ground up, solve complex challenges, and create meaningful impact.

Over the past three years, my work has centered on Artificial Intelligence, exploring its applications, opportunities, and the new frontiers it opens for businesses and society. From redefining how organizations operate to empowering teams with cutting-edge tools, I’m passionate about how AI is transforming the way we think, work, and innovate.

As a servant leader, I believe in trust, collaboration, and accountability, the foundations that enable teams to go beyond execution and push boundaries. My focus is on harnessing AI not just as a technology, but as a catalyst for bold ideas and future-oriented change.

Curious, driven, and forward-looking, I thrive at the intersection of business leadership and AI innovation, always seeking what’s next.

Powercoding avec les LLM : du prompt à la valeur produit | Jean-Yves CAMIER

Les LLM bousculent le triptyque historique Qualité – Coût – Temps.

Là où il fallait choisir entre rapidité et excellence, les assistants IA de génération de code atténuent désormais ce compromis.

Titulaire d’un Master en Génie Logiciel et passionné par le craft, la qualité logicielle et l’open source, il place l’automatisation et la simplicité au cœur de son approche technique.

Au fil de son parcours, il a occupé plusieurs casquettes — architecte logiciellead dev, ou encore formateur chez Clever Age, puis tech lead et manager  chez M6 Web.
Il est aujourd’hui ingénieur senior en fiabilité des systèmes (SRE) chez Agicap.

Expert en Go, PHP, Kubernetes et AWS, Jean-Yves combine une culture d’artisan du code avec un fort pragmatisme business : il privilégie les solutions qui apportent une valeur concrète et mesurable, conciliant exigences techniques et objectifs métier.

The Voice: conversation à voix haute avec Gemini Live API, et un backend Go | Valentin DELEPLACE

J’ai changé d’avis sur les conversations à voix haute avec des robots. Ils sont devenus moins stupides, plus rapides (faible latence) et sont en fait très utiles pour la productivité au quotidien.
Nous savons tous comment interagir avec un LLM en envoyant un prompt en entrée et en recevant du texte et des images en sortie. Mais dans une session vocale live, où se termine le prompt et où commence la réponse ? Comment pouvons-nous maîtriser le flux pour agir ? Utilisons la fonctionnalité Multimodal Live du SDK Gemini Go pour créer une application.

Valentin est ingénieur à Google Cloud. Il s’intéresse à la performance, aux algorithmes, aux serveurs web, aux BDD, UX, DX, et au langage Go !

Étendre les capacités des LLM avec Go : mise en œuvre d'un "RAG" et du "Tool Calling" | Maximilien ANDILE

Cette présentation introduit la mise en œuvre du Retrieval-Augmented Generation (RAG) et du Tool Calling, deux approches complémentaires qui étendent les capacités des modèles de langage. Une démonstration en Go illustrera leur simplicité et leur intérêt concret pour des usages courants.

Développeur freelance et auteur de Practical Go Lessons, Maximilien est un membre actif et passionné de la communauté Go.

Exploiter les Textes Cliniques avec les LLMs : cas d'usage sur le suivi des cancers | Bastien RANCE

Les hôpitaux génèrent d’immenses volumes d’informations, dont une large part sous forme de textes non structurés. Les LLMs offrent aujourd’hui des perspectives prometteuses pour exploiter efficacement cette richesse documentaire. Leur déploiement en environnement hospitalier soulève toutefois de nombreuses questions : choix du modèle, configuration locale, qualité des données extraites, robustesse et reproductibilité.
Cette présentation examinera ces enjeux à travers un cas d’usage concret : l’extraction automatisée d’informations pour le suivi des cancers.
Nous discuterons aussi du défis de la gouvernance des données liés à l’intégration de ces outils. Et nous illustrerons l’intérêt des LLMs pour accélérer et faciliter le développement et la production d’outils de gouvernance.

Bastien Rance est maître de conférences des Universités – praticien hospitalier à Université Paris Cité. Il exerce à l’Hôpital européen Georges-Pompidou, où il se consacre à la réutilisation des données de santé pour la recherche. Ses travaux portent sur l’intégration de données hétérogènes et l’extraction d’information à partir des textes cliniques, afin de mieux structurer et valoriser les connaissances médicales.

IA Souveraine - Déploiement de RAG via modèles locaux | Ewen QUIMERC'H

La souveraineté numérique est un enjeu stratégique. Cette présentation explore la construction d’un système RAG (Retrieval Augmented Generation) 100% local, sans dépendance aux infrastructures cloud américaines.

Nous verrons comment architecturer une solution complète avec streaming temps-réel via Server-Sent Events, utilisant Ollama pour l’exécution locale de LLMs, Weaviate pour le stockage vectoriel, et une API Go. L’architecture sépare les embeddings (fixes) des modèles de chat (configurables), permettant de basculer entre différents modèles pour la partie chat. Nous comparerons la performance et la pertinence de différents modèles locaux (y compris des modèles français).

Un cas d’usage concret pour reprendre le contrôle de vos données.

Ewen Quimerc’h est Tech Lead chez Theodo où il délivre des projets web ambitieux sous contraintes de temps serrées. Créateur de Fuego (framework Go pour OpenAPI) et passionné par les architectures performantes et souveraines.

Programmer de la musique avec Go | Julien SELLIER

Go est parfait pour le backend et le cloud mais saviez-vous qu’on peut aussi l’utiliser pour faire de la musique ? La présentation d’un projet de génération de son va permettre d’aborder des concepts clés en Go (interfaces, encodage binaire), les tests unitaires, le traitement audio et la production de musique.