Accueil Nos publications Blog Touraine Tech 2025 : les conférences qui nous ont marqués

Touraine Tech 2025 : les conférences qui nous ont marqués

Header équipes Néosoft au Touraine Tech 2025

Sommaire

  1. Retour sur Touraine Tech 2025
  2. Comme Alice, osez suivre le lapin blanc et plongez dans la JVM pour comprendre son fonctionnement
  3. Anatomie d’une faille
  4. L’Architecture Hexagonale par la pratique
  5. J’ai peur de parler en public, pas vous ?
  6. Le cauchemar des attaquants : une infrastructure sans secret
  7. Au secours, mon manager me demande des KPI 
  8. Comment nous avons transformé les Restos du Coeur en Cloud Provider

Retour sur Touraine Tech 2025

Les 6 & 7 février dernier, nos équipes ont eu la chance de participer à Touraine Tech 2025, LA conférence dédiée aux technologies de l’information en Centre-Val de Loire. Menée par une équipe de passionnés, cette 7ème édition “Back To School” a tenu toutes ses promesses.  

Les équipes Néosoft sur le stand Touraine Tech 2025
Stand Néosoft Touraine Tech 2025
Les équipes Néosoft à Touraine Tech 2025

Dans cet article, Carl, Côme, Romain, Ion et Emeric nous partagent leur regard sur les conférences qui les ont marqués, apportent leur point de vue et livrent des insights précieux. Retrouvez également les replays associés pour (re)vivre les moments forts de l’événement.

Une ouverture cosmique avec @astropierre : « Les robots de l’espace » 

La conférence Touraine Tech 2025 a démarré sur les chapeaux de roue avec une keynote d’ouverture captivante de Pierre Henriquet, alias @astropierre. Passionné d’astronomie et de développement informatique, il a su captiver son auditoire avec une série d’anecdotes liant conquête spatiale, robot et développement informatique.  

Pierre Henriquet a illustré comment l’informatique est un acteur crucial des missions spatiales. Mais lorsque le code s’en mêle, les conséquences peuvent être aussi bien spectaculaires que catastrophiques. 

Destinée à étudier la surface martienne et rechercher des traces de vie, la mission Viking s’appuyait sur des ordinateurs embarqués rudimentaires, avec un stockage limité et des communications lentes. Malheureusement, une mise à jour logicielle a causé l’arrêt prématuré de la mission, rappelant à quel point des tests rigoureux sont essentiels, même à des millions de kilomètres. 

Chargée d’étudier l’atmosphère martienne, cette mission a échoué en raison d’une erreur de conversion d’unités entre Lockheed Martin et la NASA. Lockheed Martin utilisait des livres-force alors que la NASA s’attendait à des newtons. Cette confusion a conduit à une mauvaise estimation de la poussée des propulseurs et à une trajectoire trop basse, provoquant la destruction de la sonde. Ce cas illustre l’importance d’une standardisation stricte dans les projets internationaux. 

Ces sondes, conçues pour explorer les planètes extérieures et l’espace interstellaire, fonctionnent encore aujourd’hui. Programmées en Fortran 5, elles ont récemment subi des « data glitchs » dus à une corruption de mémoire dans le sous-système de télémétrie de Voyager 1. Ce problème a entraîné des transmissions incohérentes vers la Terre, nécessitant près de deux ans pour être diagnostiqué et corrigé, un défi majeur compte tenu du ping de 45 heures. 

Comme Alice, osez suivre le lapin blanc et plongez dans la JVM pour comprendre son fonctionnement

Tout commence avec une mise à jour de Java 17 vers Java 21.0.1 qui fait planter un de nos benchmarks. Notre unique symptôme : une variable locale non null envoie une NullPointerException.

Tel un enquêteur professionnel, Antoine nous explique la découverte du bug. Pourquoi ? Comment ? Antoine vérifie une série de possibilités, demande de l’aide sur les mailings-lists, jusqu’à… trouver via “git bissect” un commit.. Le code est complexe, et rien ne laisse présager que cela puisse planter et pourtant : une typo. 

Lors de cette conférence j’ai appris comment aller plus loin dans le debug et l’analyse, les options de compilation du code, le code assembleur de la JVM après bytecode, la désactivation du JIT (Just-In-Time compiler), et j’en passe. J’ai également découvert qu’il est possible de laisser traîner un bug dans la JVM même après une relecture, ce qui permet de relativiser son propre code. Passionnant et ludique, cette conférence a été un vrai banger.

Anatomie d’une faille

J’attendais impatiemment, tel un fan de k pop devant le dernier truc à la mode, la conférence « Anatomie d’une faille” par Olivier Poncet. Reconnu dans le milieu des conférences techniques, Olivier est un des meilleurs conférenciers que j’ai eu la chance de côtoyer.

Cette conférence est digne d’un film hollywoodien, avec des gentils (les créateurs XZ utils) et des méchants (qui est à l’origine de cette CVE notée 10/10 ?). Un véritable scénario de folie pour cette faille qui a défrayé la chronique. Manipulations psychologiques, insertion de code malveillant, découverte fortuite de la faille… whaou ! Mieux que John Wick.

Ne voulant pas divulgâcher la suite, je vous recommande vivement de découvrir cette conférence par vous-même. 

Cette conférence m’aura également conforté dans l’idée que l’open source est puissant mais aussi vulnérable, fragilisé par un manque d’investissement humain. Un projet aussi essentiel que XZ Utils ne repose que sur un seul mainteneur, ce qui souligne l’importance d’un engagement plus fort de la communauté.

L’Architecture Hexagonale par la pratique

L’architecture hexagonale a été un sujet central de discussion, avec une présentation détaillée sur ses avantages et son implémentation. L’architecture hexagonale est un pattern d’architecture datant du début des années 2000 et malheureusement trop peu utilisée dans nos projets. Cette approche se distingue par sa capacité à découpler les composants internes d’une application, des interfaces externes. 

L’idée principale de l’architecture hexagonale est de séparer le code métier (la logique centrale de l’application) des mécanismes d’entrée et de sortie (comme les interfaces utilisateur, les bases de données, les services externes, etc.). Cela se fait en utilisant des ports et des adaptateurs : 

  • Ports : Ce sont des interfaces définies par le domaine métier. Ils représentent les points d’entrée et de sortie de l’application. 
  • Adaptateurs : Ce sont des implémentations concrètes des ports. Ils adaptent les interfaces externes pour qu’elles puissent interagir avec le code métier. 
  • Modularité : En séparant les préoccupations, chaque composant de l’application peut être développé, testé et maintenu indépendamment des autres. Cela facilite les modifications et les extensions du système. 
  • Testabilité : L’architecture hexagonale permet de tester le code métier sans dépendre des systèmes externes. Les tests unitaires peuvent se concentrer sur la logique métier, tandis que les tests d’intégration peuvent vérifier les interactions avec les adaptateurs. 
  • Flexibilité : Les adaptateurs peuvent être facilement remplacés ou modifiés sans affecter le code métier. Par exemple, vous pouvez changer de base de données ou de framework d’interface utilisateur sans avoir à réécrire la logique centrale de l’application. 
  • Maintenance : En isolant les dépendances externes, le code devient plus facile à comprendre et à maintenir. Les développeurs peuvent se concentrer sur les fonctionnalités métier sans se soucier des détails d’implémentation des interfaces externes. 
  • Évolutivité : L’architecture hexagonale facilite l’ajout de nouvelles fonctionnalités ou l’intégration de nouveaux systèmes externes. Les nouveaux adaptateurs peuvent être ajoutés sans perturber le reste de l’application. 
Collaborateur Néosoft à Touraine Tech
Les équipes Touraine Tech lisent un livre blanc DevOps Néosoft
Couverture livre blanc DevOps Néosoft sur le stand Touraine Tech

J’ai peur de parler en public, pas vous ?

Ce talk a immédiatement suscité mon intérêt grâce à son titre évocateur. Expérience universelle, cette appréhension concerne un grand nombre de personnes. Dès le début du talk, Clara Mamet introduit le terme « glossophobie » : la peur de parler en public.

Elle explore les origines de cette peur en s’appuyant sur le fonctionnement du cerveau, notamment le rôle du cerveau reptilien, qui régit nos mécanismes de survie et instrumentalisme certaines peurs. Celle du rejet par exemple, un élément central dans la crainte de s’exprimer en public.

L’intervention met également en lumière les mécanismes liés au regard des autres, le besoin de validation et la manière dont il est possible de travailler sur ces aspects. Clara Mamet aborde aussi le syndrome de l’imposteur et ses différentes nuances, en expliquant comment il peut influencer la confiance en soi. Elle établit un lien entre la conscience de soi et l’estime de soi. Ainsi, une manière de se détacher du regard des autres serait de comprendre notre propre fonctionnement et d’avoir davantage conscience de soi. 

Cette conférence, particulièrement enrichissante, offre une analyse approfondie des mécanismes liés à la peur de parler en public. Elle permet de mieux conscientiser cette peur et de connaître les leviers sur lesquels travailler pour mieux la maîtriser. Et rien de mieux pour illustrer cela que la performance même de Clara Mamet, qui a brillamment relevé le défi de sa première prise de parole en public.

Le cauchemar des attaquants : une infrastructure sans secret

La conférence a débuté par un constat clair : malgré les efforts déployés et les processus mis en place, aucune architecture informatique n’est totalement exempte de failles. Entre autres, 74% es vulnérabilités impliquent un facteur humain et 60% sont liées à la gestion des identifiants. Pourtant, il existe de nombreuses solutions permettant de renforcer la sécurité sans pour autant dégrader l’expérience utilisateur, voire de l’améliorer. Pendant 30 minutes, Thibault Lengagne nous propose plusieurs combinaisons d’outils et de configuration d’infrastructures afin d’améliorer la sécurité des systèmes d’information, en mettant particulièrement l’accent sur des solutions open source.

L’objectif principal de ces approches, que ce soit du côté des développeurs ou dans les pipelines CI/CD, est de limiter la nécessité de connaître des identifiants, ou du moins d’en restreindre leur durée d’utilisation. Parmi les méthodes abordées, la rotation des identifiants et la génération d’identifiants uniques occupent une place centrale.

Des outils comme Vault et Bastion (qui fonctionnent très bien ensemble), permettent de déléguer l’accès aux bases de données, supprimant ainsi le besoin pour les développeurs de connaître directement leurs identifiants. Cette approche réduit considérablement le risque de fuite de données de leur part.

Bien que la présentation ait été principalement orientée vers les équipes DevOps, elle s’est révélée tout aussi pertinente pour les développeurs. Comprendre les risques liés aux fuites de données et découvrir les outils permettant de s’en prémunir contribue non seulement à renforcer la sécurité, mais aussi à améliorer la qualité de vie au travail.

Au secours, mon manager me demande des KPI 

Au-delà de la mise en scène légère – Kevin, Lead Dev, travaille dur pour aboutir à l’Etoile de la Mort v3.0 – Geoffrey Graveaud nous conduit à penser une situation qui est à la fois commune et douloureuse. Comment réagir lorsque nous sommes face à l’obligation, verticale, de mettre en place ces fameux indicateurs de performance chiffrés (Key Performance Indicators) ? Des indicateurs qui, la plupart du temps, requierent un temps précieux et relèvent d’un effet de mode. Alors comment les rendre pertinents ?

Geoffroy plaide avec éclat et détermination en faveur d’une démarche ambitieuse et constructive. Plutôt que de sombrer dans la dépression ou de se contenter du strict minimum en créant un indicateur factice toujours au vert, il nous invite, en substance, à inverser la dynamique et à manager les managers. Puisqu’ils sont demandeurs d’informations, saisissons cette occasion pour leur remonter les vrais problèmes terrain. 

Cette présentation n’a pas pour but de passer en revue les divers indicateurs de performance, mais elle ne laisse pas pour autant sans repère. Elle nous promulgue plusieurs recommandations, inspirées du rapport Accelerate de l’équipe DORA (et cela tombe bien, nous avions eu l’occasion de voir précédemment une mise en pratique chez Decathlon). 

Mais la valeur de cette intervention réside ailleurs. D’abord, le conférencier définit de manière limpide le problème : un KPI doit être “clair, pertinent et faire sens” et faire ressortir “des actions observables et des métriques d’équipe valorisant vos pratiques du quotidien”. Ce sont de tels indicateurs que nous devons convaincre, l’entreprise, de privilégier. Pour y parvenir, Geoffroy nous fournit des outils, alliant observations théoriques et astuces pratiques. 

Il met ainsi l’accent sur la communication avec le manager direct, qui doit porter notre message, et nous apprend la technique du sandwich : introduire un point délicat en l’encadrant de remarques positives. Il insiste aussi sur la nécessité de légitimer ses propositions auprès du management en s’appuyant sur l’avis de ses pairs. Pour cela, il propose un outil concret : un formulaire aux questions neutres utilisant l’échelle d’attitude, mais sans option médiane, afin d’obliger les répondants à se positionner. 

Pour conclure, je dois reconnaître que le sujet m’a d’abord mis mal à l’aise, au point d’associer ce malaise au présentateur lui-même. L’idée de gérer une telle situation me semblait être une raison suffisante pour ne pas devenir Tech Lead. Pourtant, Geoffroy Graveaud a su démontrer la nécessité et la puissance de son approche. Après tout, la qualité d’une organisation est limitée par la qualité de l’information qui y circule, et les développeurs n’ont pas à rester de simples spectateurs dans cette dynamique, dont ils subissent les conséquences. 

Du rêve à la réalité, coder un jeu sur Super Nintendo

Pendant cette conférence, Alekmaul nous a expliqué comment il a pu créé et commercialisé son propre jeu vidéo sur Super Nintendo, il s’agit d’un jeu un peu à la « Indiana Jones ». 

Il nous a expliqué les différentes étapes qu’il a suivi, comment il a fait pour bien comprendre le hardware de la console, la création de sa propre librairie (PVSneslib), les différentes étapes pour la commercialisation… 

J’ai pu apprendre qu’il était toujours possible de commercialiser une vraie cartouche de jeu « comme à l’époque », ce qui a valu une anecdote rigolote sur une publicité qu’il a reçu par la suite par mail pour obtenir une copie piratée de son propre jeu. 

Nous avons également pu voir pendant la conférence des extraits de code et l’application « en direct » sur la console, ce qui permet de découvrir un univers du développement un peu différent de ce que nous avons l’habitude de faire. 

Comment nous avons transformé les Restos du Coeur en Cloud Provider

Enfin, l’un des moments les plus marquants de cette édition par Julien Briault, qui nous a partagé une présentation inspirante sur la transformation des Restos du Coeur en un “fournisseur de Cloud”. Cette conférence a mis en lumière comment une association caritative a su tirer parti du Cloud et des technologies modernes pour optimiser son infrastructure et mieux servir ses bénéficiaires.  

Les Restos du Cœur gèrent des milliers de bénévoles et distribuent des millions de repas chaque année, avec une logistique complexe. Leur système informatique était fragmenté et difficile à maintenir. La transformation vers le Cloud est devenue une nécessité. 

Pour rappel : 1€ = 1 repas. 

Pour continuer à fournir des repas à ceux qui en ont besoin, il est crucial de passer par des solutions open source et de faire appel aux dons. Chaque euro compte et permet de nourrir une personne dans le besoin. 

Cette migration a permis aux Restos du Cœur d’améliorer leur efficacité opérationnelle : 

  • Gestion plus fluide des distributions alimentaires 
  • Infrastructure résiliente et adaptable aux pics d’activité 
  • Réduction des coûts de maintenance IT 
  • Meilleure collaboration entre les antennes locales 

Julien Briault a souligné plusieurs points importants : 

  • La technologie doit servir l’humain, en se centrant sur les besoins des bénéficiaires et des bénévoles
  • Le Cloud implique des changements organisationnels et une adaptation des équipes 
  • L’open source permet de construire des solutions flexibles et économiques. 

Ce retour d’expérience montre qu’une organisation à but non lucratif peut, grâce au Cloud, gagner en agilité et en efficacité tout en restant fidèle à ses valeurs. Le projet de Julien Briault illustre comment la technologie peut être un levier puissant pour servir une cause humanitaire. 

Touraine Tech : à l’année prochaine ?

Vous l’aurez compris, pendant 2 jours, développeurs et DevOps ont pu découvrir des conférences variées. À Touraine Tech, les sujets abordés vont de Doom sur le navigateur, à la question de la mixité dans la tech en passant par l’art de la prise de parole en public. L’audience s’émerveille devant l’architecture hexagonale, l’anatomie d’une faille provoque des frissons, la résolution d’un bug dans la JVM force le respect, tandis que des outils DevOps et même du CSS se révèlent sous un nouveau jour.

Cette diversité de thèmes, couplé à une équipe organisatrice sympathique et ouverte, fait de Touraine Tech 2025 un évènement unique. À l’année prochaine ?

Crédits photos :  © Louane Joaquin &  © Clément Lopez

Vous souhaitez en savoir plus ? Contactez-nous !

Aller au contenu principal