Devoxx 2025 : IA, architecture et expérience développeur au cœur des discussions
Sommaire
- Devoxx : les tendances 2025
- IA Générative, TDD et Architecture Hexagonale : une synergie révolutionnaire ?
- Leggins et dark patterns : quand une UX sans couture dessert l’utilisateur
- Apache Iceberg : pourquoi devez-vous connaître ce nouveau format de stockage de données ?
- Arcane : Quand la technologie n’est pas le produit mais une série d’animation
- Écrire l’avenir de son code avec OpenRewrite
- 45 min pour mettre son application à genoux : le guide complet du test de charge
- Le futur sera vert, notre code aussi
Devoxx 2025, on y était !
Cette année encore, nous avons eu la chance de participer au Devoxx France 2025, l’un des plus grands rendez-vous de la tech en Europe. Trois jours intenses, riches en conférences techniques, échanges passionnés et découvertes innovantes. Avec plus de 4500 participants par jour, 80 exposants, 320 speakers pour 285 conférences, Devoxx continue d’être un événement phare pour la communauté des développeurs.
Devoxx : les tendances 2025
Cette année, le programme a brillamment reflété la diversité des sujets qui animent la tech aujourd’hui. Avec 20% des conférences dédiées au développement – du front-end aux langages back-end – et 18% centrées sur la data et l’intelligence artificielle, deux thématiques ont largement dominé l’édition… mais pas que !
Voici les grandes tendances de 2025 :
- IA + dev : TDD revient en force, codez vos tests pour garder un filet de sécurité, puis laissez l’IA faire le reste.
- IA en production : beaucoup de sujets autour de la fiabilisation et de la sécurisation des LLMs.
- Apache Iceberg : stockez efficacement des données en masse en gérant les updates, le partitionning et le time travel.
- Sécurité : surveillez vos dépendances et prenez garde aux techniques de manipulation (social engineering).
- Developer Experience : CDE (Container/Cloud Development Environment) pour mieux onboarder et améliorer l’expérience de développement.
Dans cet article, Pierre, Jérôme, Cyril, Thibaut et Olivier nous partagent leur regard sur les conférences qui les ont marqués, apportent leur point de vue et livrent des insights précieux.
IA Générative, TDD et Architecture Hexagonale : une synergie révolutionnaire ?
par Clément Virieux et Florine Chevrier
Et si l’intelligence artificielle générative n’était pas l’ennemie du software craft, mais plutôt une alliée stratégique ? Lors de ce retour d’expérience riche en enseignements, Clément et Florine ont exploré l’idée de combiner IA générative, TDD et architecture hexagonale pour maximiser productivité et qualité.
L’approche consiste à alimenter l’IA avec des maquettes Figma et des tests pour cadrer le besoin. Ainsi, les tests sont écrits par le.la développeu.r.se comme des garde-fous et des spécifications. On y trouve des tests de composants front, des tests fonctionnels dans une approche BDD et des tests architecturaux pour s’assurer que l’IA respecte les principes d’une architecture hexagonale. Ensuite, on guide l’IA selon une stratégie “plan first, act second” pour s’assurer de bien relire et valider le code généré, tout en exécutant les tests à chaque étape.
Une démonstration montre comment orchestrer cette collaboration homme-machine avec Cline, un plugin VS Code open source et gratuit. Une alternative existe d’ailleurs côté JetBrains avec Junie. Ces outils permettent d’écrire du code, d’exécuter des tests, de lancer un navigateur ou de piloter le terminal. L’outil OpenRouter facilite en parallèle le changement de modèles IA selon les besoins. L’IA fonctionne ici dans une boucle d’exécution itérative : génération de code, passage des tests, correction automatique, refactoring.
Cline offre la possibilité de spécifier des fichiers de règles personnalisés (.clinerules) ou des instructions spécifiques permettant de contraindre davantage les réponses, en s’inspirant du code existant. Cela évite de répéter les critiques à chaque itération.
Autre point positif : l’outil affiche le coût de chaque requête au modèle LLM choisi. Ainsi on voit la consommation en temps réel, ce qui évite quelques surprises et permet d’ajuster les prompts en conséquence…
Côté code, l’approche encourage une structuration propre : séparation claire entre affichage et logique métier, centralisation des règles de gestion dans le domaine, etc. mais attention à ne pas trop en faire ! Les tests servent de filet de sécurité, permettant de refactorer sans crainte. Le TDD fonctionne bien ici en mode “outside-in” et en incrémental.
Pour finir, nos 2 speakers estiment le gain de temps à environ 50% sur l’application démontrée, et pour un coût raisonnable : 70$ pour une semaine de développement d’une application avec 5 écrans, filtres, tris, etc. La qualité du code généré reste perfectible, mais devient maîtrisable grâce à la couverture de tests. L’approche bouscule les pratiques, mais s’apparente à l’apprentissage d’un nouveau framework. Seul bémol : la consommation énergétique de l’IA, un aspect à ne pas négliger.
🟢 Ce qu’on a aimé : une démonstration concrète et accessible de l’impact du TDD dans un contexte boosté par l’IA. Un vrai équilibre entre théorie et retours d’expérience terrain.
Leggins et dark patterns : quand une UX sans couture dessert l’utilisateur
par Iris Naudin
Même les pros du web peuvent tomber dans les pièges des dark patterns… À travers une anecdote personnelle liée à l’achat de vêtements de sport, cette conférence coup de poing propose une plongée dans les mécaniques de manipulation utilisées sur les sites e-commerce.
1. Dark patterns : de quoi parle-t-on ?
Les dark patterns sont des stratégies de conception délibérément trompeuses, destinées à manipuler les choix de l’utilisateur à l’avantage de l’éditeur. Un chiffre marquant : 40% des sites e-commerce en utilisent au moins un.
2. Le parcours d’achat piégé
À travers l’exemple d’un site de sport bien connu (IKEA est aussi cité), Iris Naudin décortique les pièges classiques :
- Multiplication d’écrans et d’étapes inutiles
- Coûts cachés (livraison, licences)
- Coche pré-sélectionnée pour options payantes
- Alertes culpabilisantes comme “Votre panier est vide !”
- Réabonnement masqué sous forme de bouton “acheter”
L’objectif est clair : augmenter artificiellement le panier moyen en détournant l’attention ou la logique de l’utilisateur.
3. Biais cognitifs : l’arsenal psychologique
La conférence explore aussi les mécanismes mentaux exploités :
- Biais d’autorité : confiance excessive envers une figure reconnue
- Pied-dans-la-porte : suite d’actions mineures ou peu coûteuses qui amènent finalement l’utilisateur à un engagement plus fort ou à une demande plus coûteuse
- Friction volontaire : rendre le bon choix compliqué, le mauvais plus accessible
- Paradoxe du choix : trop de possibilités noient l’utilisateur et poussent au choix par défaut
- Effet de saillance : rendre discrètes visuellement les options avantageuses pour l’utilisateur
- Ou encore l’expérience Skinner (1960), où l’on incite l’utilisateur à réaliser des clics frénétiques pour obtenir une récompense aléatoire, un principe repris dans certaines mécaniques web.
4. Des publics particulièrement vulnérables
Les dark patterns visent en priorité les utilisateurs fatigués, pressés ou peu expérimentés – jeunes, personnes âgées, non-francophones, peu familiers du numérique… Cela dit, même les professionnels aguerris ne sont pas à l’abri de ces mécanismes de manipulation.
5. Des alternatives existent : vers un design éthique
Alors pour concevoir autrement, des outils et ressources existent. Voici quelques exemples :
- Opquast et ses 240 bonnes pratiques : https://www.opquast.com/
- Le site Deceptive Patterns (Harry Brignull)
- La matrice d’évaluation de la captographie (2021)
- Les travaux de la CNIL sur la topographie des dark patterns (2019)
- La série documentaire “Dopamine” (Arte) qui vulgarise brillamment les mécaniques addictives du numérique
Pour résumer, l’UX ne doit pas être un alibi pour manipuler. En tant que designers, devs ou testeurs, nous avons une responsabilité éthique dans les choix de design. Il est possible — et nécessaire — de concevoir des interfaces respectueuses, accessibles et transparentes.
🟢 Ce qu’on a aimé : l’ancrage concret dans une expérience vécue, l’humour maîtrisé, la richesse des références, et surtout, un appel lucide et inspirant à repenser nos pratiques.
Apache Iceberg : pourquoi devez-vous connaître ce nouveau format de stockage de données ?
par Bertrand Paquet
Lors de sa conférence, Bertrand Paquet (Doctolib) nous explique pourquoi Apache Iceberg attire autant l’attention et comment il transforme notre manière de gérer le stockage de données.
Apache Iceberg, créé par Netflix en 2017, est un format de table open source qui révolutionne les architectures type data lake grâce à sa gestion évolutive, transactionnelle et performante des données. Cette solution supporte de nombreuses fonctionnalités innovantes :
- Transactions ACID
- Évolution de schéma sans douleur
- Partitionnement automatique
- Time travel grâce à des snapshots historisés
- Maintenance intégrée (compaction, nettoyage de snapshots…)
Couplé à Amazon Athena et AWS Glue, nous obtenons une architecture data permettant des requêtes rapides, fiables et évolutives.
Doctolib a construit une fusée à plusieurs étages intégrant Apache Iceberg :
1. Remontée des modifications PostgreSQL vers Kafka grâce à Debezium (Capture Data Change / CDC)
2. Utilisation de sinks Iceberg intégrés à Kafka pour alimenter des tables Iceberg contenant les événements poussés par Debezium
3. Construction d’un datalake transactionnel grâce à un gros MERGE INTO qui traite par batch les données modifiées
Les avantages notables d’une telle architecture :
- Requêtage en temps réel pour des besoins d’analytics
- Traitement et alimentation de modèles d’IA
- Possibilité de faire du time travel pour du troubleshooting à partir de la table d’événements CDC
- Alimentation d’environnements de test / recette anonymisés
Il faut cependant prévoir quelques tâches de maintenance obligatoires : suppression des données périmées (pour éviter une facture exponentielle), des phases de compaction pour optimiser le stockage des fichiers sous-jacents, et un nettoyage régulier des fichiers orphelins. En résumé, Apache Iceberg est une solution puissante pour des cas d’usage à grande échelle, mais pas forcément adaptée au temps réel. Elle s’impose largement face à des alternatives comme Google BigQuery, Amazon Redshift ou Apache Hive.
🟢 Ce qu’on a aimé : une conférence Devoxx 2025 qui réussit à démystifier Apache Iceberg avec des exemples concrets, une approche pragmatique et la démonstration d’un use case avancé.
Arcane : Quand la technologie n’est pas le produit mais une série d’animation
par Philippe Llerena
La série d’animation Arcane, issue de l’univers de League of Legends, est le fruit de 9 années de production et de la collaboration de 700 personnes. Derrière cette œuvre, un défi technique colossal a été relevé sans que la technologie soit mise au premier plan du produit final.
1. Le contexte
La production de Arcane s’est étendue sur plusieurs années, avec une forte intensité durant les périodes de pic, notamment avec jusqu’à 60 recrutements mensuels. Le processus de création a été soutenu par un pipeline de production itératif sans logiciel imposé. Si cette flexibilité a permis une diversité technique, cette approche a également engendré une certaine complexité dans la gestion des différents flux de travail. D’autant plus que la stack technique, bien que principalement figée autour des années 2017-2018, a été utilisée tout au long de la production.
L’une des principales caractéristiques de ce projet a été la forte interdépendance entre les différents départements. Pour gérer cela, un système de pipeline robuste a été mis en place, couplé à un gestionnaire d’assets développé en interne, basé sur GitLab. Cette solution a permis de coordonner les équipes et d’assurer la fluidité des échanges d’informations tout au long de la production.
2. Outils, technologies et contraintes
Le choix des outils a été fondamental dans le développement de la série. Des logiciels comme Autodesk Maya, SideFX Mari et Photoshop ont été utilisés pour réaliser la majorité des tâches artistiques. De plus, des plugins internes tels que Flur ont été développés pour faciliter certaines étapes du processus. L’intégration des librairies de personnages emblématiques comme Jinx, Vi et Cait a également représenté un défi technique particulier, nécessitant un soin particulier dans leur gestion et leur implémentation.
L’architecture technique s’appuyait sur un gestionnaire d’assets maison, baptisé Terrarium, couplé à une API (Aquarium) utilisant ArgoDB pour suivre et organiser les ressources. Un système de gestion de paquets comme Rez et SPK a permis de structurer les dépendances entre les différentes parties du projet. Toutefois, l’utilisation de « weak references » a causé des surcharges manuelles lors de la gestion des dépendances, ce qui a constitué une contrainte supplémentaire pour les équipes. Le déploiement, réalisé via Puppet, a permis de maintenir un environnement de production stable, mais les contraintes liées aux logiciels historiques (Maya 2018 par exemple) ont limité la possibilité de faire évoluer la stack d’un projet à l’autre.
3. Innovations et défis
Sur le plan des innovations, l’un des choix marquants a été l’adoption du format vidéo USD (Universal Scene Description) proposé par Pixar, une technologie qui a permis d’assurer la gestion efficace des scènes complexes tout au long de la production. De plus, l’équipe a veillé à respecter des normes éthiques strictes en matière d’intelligence artificielle, notamment en ce qui concerne les datasets utilisés pour l’entraînement des modèles.
Une collaboration inédite avec Qarnot Computing a également permis de récupérer la chaleur générée par les fermes de calculs pour alimenter des bâtiments et même brasser de la bière, alliant ainsi innovation technologique et impact environnemental positif.
En conclusion, Arcane prouve qu’il est possible d’utiliser des technologies avancées pour soutenir une expérience artistique sans que la technologie prenne le pas sur la création elle-même. Grâce à une architecture technique robuste, flexible – bien que parfois figée pour préserver la cohérence du pipeline – ce qui compte c’est l’expérience artistique livrée au public.
🟢 Ce qu’on a aimé : cette conférence nous a montré comment une gestion technique rigoureuse et flexible a permis de donner vie à un projet d’envergure. Un exemple inspirant où la technologie n’est pas un but en soi, mais un outil mis au service d’une œuvre réussie.
Écrire l’avenir de son code avec OpenRewrite
par Manuel Ryan
OpenRewrite se présente comme une solution innovante pour moderniser le code à grande échelle tout en maintenant des standards de qualité élevés. Cette conférence explore son intégration dans une démarche de platform engineering afin d’automatiser la gestion de la dette technique.
OpenRewrite repose sur une approche par « recettes » – des scripts écrits en Java ou YAML – qui peuvent être composés, réutilisés et partagés. Il est possible de créer ses propres recettes ou d’utiliser celles issues de la communauté open-source.
Les recettes peuvent être rejouées à l’infini, favorisant ainsi la cohérence du code à travers de nombreux projets.
1. Les objectifs d’OpenRewrite
- Automatiser la refactorisation du code
- Appliquer les bonnes pratiques de développement
- Simplifier les migrations technologiques
- Remédier à des vulnérabilités de sécurité
- Mettre en place de nouvelles fonctionnalités à l’échelle
Cependant, l’utilisation d’OpenRewrite n’est pas sans défis. La création de recettes personnalisées peut parfois provoquer des comportements inattendus et le débogage, bien que possible, peut être long et complexe.
2. Intégration à grande échelle
Pour appliquer des modifications à grande échelle automatiquement, plusieurs solutions existent :
- Interne : Fleetshift (Spotify), Rosie (Google)
- Commercial : Moderne.io, Sourcegraph
- Gratuit : aucune solution complète disponible à ce jour
En résumé, OpenRewrite permet une transformation progressive, contrôlée et fiable du code source. Elle devient ainsi un accélérateur durable au service de la gouvernance technologique et de l’uniformisation du code. Cette approche contribue à écrire l’avenir du code en rendant la maintenance et l’évolution des projets plus simples, plus sûres et plus rapides.
🟢 Ce qu’on a aimé : une présentation à la fois technique et passionnée, mettant en avant l’importance du Platform Engineering dans le quotidien des développeurs.
45 min pour mettre son application à genoux : le guide complet du test de charge
par Loic Ortala et Mathilde Lorrin
Dans cette conférence Devoxx 2025, Loic Ortala et Mathilde Lorrin nous présentent Gatling, un produit open source et leader dans le domaine des tests de charge.
Leur approche est pragmatique et nous invite à nous poser deux questions essentielles avant de démarrer un test : Qu’est-ce que je dois tester ? et Qu’est-ce qui va faire mal si ça plante ?
Par ailleurs, il est aussi essentiel de réaliser des tests fonctionnels avec des scénarios réalistes en identifiant les parcours client importants.
Gatling offre dans son SDK plusieurs concepts comme les groupes, les boucles, les pauses, ou encore la gestion des sessions utilisateur virtuelles, permettant de simuler des scénarios de charge variés. Les feeders sont également utilisés pour injecter des données dynamiques et garantir la fidélité des tests.
Pour créer un test de charge, nos 2 speakers proposent la démarche suivante :
- Analysez les requêtes fetch/XHR dans le navigateur et identifiez les données à faire varier
- Utilisez des fonctions “random » dans des feeders (pour avoir des données réalistes)
- Tout stocker en session
Les best practices :
- On facilite le flow pour le test !
- Pas de captcha
- Pas de MFA
- Création d’access-token qui dure plus longtemps
- On crée un nouveau « client » spécifique à l’env de test dans l’IAM
Pour optimiser la mise en place des tests, une test gateway privée peut être envisagée. Il s’agit d’une API dédiée aux tests de charge qui permet d’envoyer massivement des tokens, d’exposer des fonctionnalités utiles, mais aussi des données ou opérations internes nécessaires à la simulation réaliste d’une charge.
Enfin, pour maintenir l’efficacité des tests dans le temps, il est recommandé de les intégrer dans la CI et de mettre en place un smoke test léger avec très peu de user mais qui s’assure que les tests continuent de fonctionner.
🟢 Ce qu’on a aimé : l’introduction version “Bref” a mis tout le monde d’accord dès le début. Quelle performance ! Ensuite, le talk suit une démo fil rouge tout en nous donnant des conseils. Nous repartons de ce talk avec une meilleure compréhension pour mettre en place et maintenir nos tests de charge.
Le futur sera vert, notre code aussi
par Steve Rigano, Laurent Duclay, Jean-Yves Cronier, Aurélien Couderc
La conférence « Le futur sera vert, le code aussi » a abordé plusieurs initiatives et pratiques pour rendre le développement logiciel plus écologique. Parmi les points clés, nous retrouvons notamment l’utilisation du plugin « Clean & Go » et les principes d’éco-conception, qui incluent le refactoring de code, le choix judicieux des matériels, et la mise à jour régulière de la JVM.
Des recommandations techniques ont également été partagées, telles qu’éviter d’appeler des repositories Spring dans une boucle et utiliser des logiciels de qualimétrie comme Sonar, Creedengo, et les linters en général. Enfin, l’optimisation de la JVM a été soulignée comme un levier important pour améliorer l’efficacité énergétique des applications.
Ces pratiques vertes apportent un bon nombre de bénéfices non négligeables :
- Conformité réglementaire : à mesure que les régulations environnementales deviennent plus strictes, adopter des pratiques de développement durable peut aider les entreprises à se conformer aux exigences légales actuelles et futures.
- Réduction de l’empreinte carbone : en adoptant des pratiques d’éco-conception, comme le refactoring de code et l’optimisation de la JVM, nous pouvons réduire la consommation énergétique des applications, contribuant ainsi à la diminution des émissions de CO2.
- Optimisation du code : l’utilisation de logiciels de qualimétrie permettent d’améliorer les performances des applications, rendant les systèmes plus rapides et plus réactifs.
- Réduction des coûts : une meilleure gestion des ressources matérielles et logicielles peut entraîner une réduction des coûts opérationnels, notamment en diminuant la consommation d’énergie et les besoins en infrastructure.
- Meilleure qualité du code : l’utilisation de linters et d’outils comme Sonar ou Creedengo aide à maintenir un code propre et de haute qualité, facilitant ainsi la maintenance et réduisant les bugs.
- Innovation et collaboration : les initiatives comme la Green Code Initiative favorisent la collaboration entre développeurs et entreprises, stimulant l’innovation dans le domaine du développement durable.
- Sensibilisation et formation : les événements et hackathons organisés autour de ces thématiques permettent de sensibiliser les développeurs aux enjeux environnementaux et de les former aux bonnes pratiques.
- Amélioration continue : la mise à jour régulière de la JVM et l’adoption de nouvelles technologies permettent de bénéficier des dernières avancées en matière de performance et d’efficacité énergétique.
- Responsabilité sociale : en intégrant des pratiques durables dans le développement logiciel, les entreprises peuvent démontrer leur engagement envers la responsabilité sociale et environnementale, améliorant ainsi leur image de marque.
🟢 Ce qu’on a aimé : une conférence engageante et engagée, portée par la passion de 4 intervenants du Crédit Agricole. Une session inspirante, avec des outils et conseils concrets, qui nous invite à repenser notre manière de coder, pour un futur plus vert et plus durable.
Devoxx 2025, à l’année prochaine ?
Comme chaque année, Devoxx 2025 nous aura offert une immersion complète dans le monde de la tech, avec des conférences aussi enrichissantes qu’inspirantes. Si la Data et l’IA ont dominé les échanges durant ces trois jours, il est important de noter que l’IA générative, déjà reléguée au second plan, a cédé sa place à des modèles plus spécifiques comme le RAG (Retrieval-Augmented Generation). Loin d’être une menace pour les professionnels du code, l’IA s’affirme comme un véritable outil pour les épauler.
En dehors de l’IA, l’événement a offert une multitude de conférences techniques particulièrement appréciées par les développeurs, notamment ceux passionnés par Java et le développement front-end. Des sujets comme l’optimisation des pratiques de code avec OpenRewrite, ou l’architecture hexagonale, ont offert des perspectives concrètes pour améliorer la qualité logicielle et la gestion de la dette technique. Sans oublier quelques conférences décalées mais tout aussi intéressantes, telles que « Arcane : Quand la technologie n’est pas le produit » ou les « BullShit IT Awards ».
Devoxx 2025 a encore une fois prouvé qu’il est un événement phare pour toute la communauté tech, mêlant expertise technique, innovation et moments de légèreté. À l’année prochaine ?