Parcours

Parcours professionnel, missions clés, formations et engagements annexes.

Développeur passionné avec plus de 10 ans d’expérience, j’ai débuté la programmation dès l’âge de 14 ans. Fort d’un double bagage en développement logiciel et en Intelligence Artificielle, je conçois des architectures centrées sur la simplicité et la robustesse. Mon expertise transverse combine la maîtrise de l’écosystème Python et une culture DevOps approfondie pour délivrer des systèmes scalables et fiables.

> 2016-2017 : Doctorant en Intelligence Artificielle (Graph Neural Networks)
> 2014-2016 : Master en Traitement de l'Information et IA
> 2011-2014 : Licence EEA — Spécialité Génie Électrique et Informatique Industrielle
Création et Développement d'un Collectif | Collectif Dev'Oc

Période : Avril 2025 – Aujourd’hui

Site Web : Dev’Oc

Organisation :

  • Équipe : Binôme expert (1 Front-end/UX, 1 Back-end/DevOps).
  • Rôle : Co-Fondateur, Architecte Logiciel & Lead Tech.
  • Modèle : Accompagnement haute proximité pour TPE/PME.

Stack Technique :

  • Langage & Core : Python 3.14+, Zola, NextJs.
  • Interfaces : Typer, FastAPI.
  • Infra & Ops : Github Actions, Vercel, Netlify, FastAPI Cloud, OVHCloud.
  • Templating & Factory : Cookiecutter, Jinja 2, Cruft.
  • Developer Experience : MyPy/Ty, Pytest, Ruff, Pre-Commit/Lefthook.

Contexte : Dev’Oc est un collectif de développeurs dédié à l’accompagnement des TPE et PME d’Occitanie, avec un focus particulier sur les territoires ruraux. L’objectif est de démocratiser l’accès au sur-mesure logiciel en adaptant les solutions aux moyens réels de ces structures.

Mission : Piloter la direction technique du collectif, concevoir des architectures scalables et durables pour les clients, et assurer la viabilité économique du modèle.

Réalisations :

  • Industrialisation de Production : Mise en place d’une “Software Factory” basée sur Cruft et Cookiecutter, permettant d’initialiser et de maintenir à jour des projets clients (web ou métiers) en quelques minutes avec un standard de qualité senior.
  • Conception “Lean” Architecture : Développement de solutions logicielles modulaires permettant aux TPE de démarrer avec un MVP (Minimum Viable Product) robuste, évolutif vers des infrastructures cloud complexes.
  • Expertise & Souveraineté : Audit et conseil stratégique pour la migration de structures locales vers des solutions européennes (Digital Sovereignty), garantissant la sécurité et la conformité des données.
  • Impact & Reconnaissance : Lauréat OpenCarca 2025. Validation du modèle économique et social par les acteurs institutionnels, récompensant l’approche innovante de la transformation numérique en zone rurale.
Plateforme MMS (Mission Management Service) | Loft Orbital

Période : Décembre 2023 – Avril 2025

Organisation :

  • Équipe : 1 Lead Tech, 6 Développeurs (Contexte international : France / USA).
  • Rôle : Software Engineer & Platform Specialist.
  • Méthode : Agile (Scrum/Kanban) en environnement multi-fuseaux horaires

Stack Technique :

  • Langage & Core : Python (3.9 à 3.13), Django, Pydantic.
  • Data & Format : Pandas, GeoParquet (Données géospatiales).
  • Interfaces : Graphene (GraphQL), Architecture micro-services.
  • Infra & Ops : GCP, Kubernetes, GitLab CI, Docker.
  • Developer Experience : MyPy, Pytest, Black/isort, Pylint, Pre-Commit, JupyterLab/Notebook, Sphinx.

Contexte : Loft Orbital propose des services d’exploitation de données satellitaires “as-a-service”. L’équipe MMS est responsable de la chaîne logicielle orchestrant la réception, le traitement et la restitution automatisée des données provenant des satellites en orbite.

Mission : Développer de nouvelles fonctionnalités au sein de l’équipe MMS (Mission Management Service), participé à l’orchestration de la chaîne logicielle gérant la réception, le traitement et la restitution automatisée des données satellitaires, garantir la stabilité et la scalabilité de la plateforme existante.

Réalisations :

  • Ingénierie d’Observabilité : Conception et implémentation d’une librairie interne d’instrumentation basée sur OpenTelemetry. Ce socle a permis d’assurer un monitoring fin, le traçage distribué et la santé des services en production.
  • Standardisation (Framework Métier) : Développement d’un framework interne pour simplifier et homogénéiser l’écriture des workflows de traitement de données satellitaires, permettant aux équipes métier de se concentrer sur la logique de traitement plutôt que sur l’infrastructure.
  • Industrialisation & Conteneurisation : Optimisation de la “Software Supply Chain” via la création de conteneurs Docker haute performance et la maintenance de templates de projets (Scaffolding) pour garantir l’uniformité des développements applicatifs.
  • Évolutions CI/CD : Modernisation des pipelines GitLab CI pour supporter les montées de versions Python (jusqu’à 3.13) et répondre aux exigences de déploiement continu sur GCP/Kubernetes.
  • Traitement de Données (EarthDaily) : Mise en œuvre de pipelines de traitement spécifiques pour des clients stratégiques, intégrant des contraintes de volume et de précision géospatiale.
  • Coordination Internationale : Garantie de la cohérence technique entre les équipes françaises et américaines, assurant la continuité du développement malgré les contraintes de décalage horaire.
Platform Engineering & Industrialisation Cloud | Extia (Client : Bimpli by Swile)

Période : Avril 2023 – Août 2023

Organisation :

  • Équipe : 1 Scrum Master, 2 Platform Engineers, 2 Architectes Infra & Réseau.
  • Rôle : Platform Engineer.
  • Méthode : Agile / Scrum.

Stack Technique :

  • Langage & Core : Python 3.10, Pulumi.
  • Interfaces : Typer.
  • Test de charge : Locust.
  • Infra & Ops : Github Action, Docker, AWS.
  • Developer Experience : MyPy, Pytest, Bandit, Pre-Commit, Black, Flake8, localstack.
  • Templating & Factory : Cookiecutter, Jinja 2, Cruft.

Contexte : Bimpli est a l’origine une filiale du groupe BPCE spécialisée dans les avantages salariés, racheté en 2023 par Swile. L’équipe Platform est responsable de la mise à disposition et du maintien en conditions opérationnelles d’une infrastructure Cloud robuste, sécurisée et automatisée pour l’ensemble des services de la fintech.

Mission : Industrialiser le déploiement des ressources Cloud sur AWS via l’Infrastructure as Code et fournir aux développeurs les outils nécessaires pour gagner en autonomie sur leurs déploiements (Self-Service Infrastructure).

Réalisations :

  • Architecture IaC avec Pulumi : Migration et conception de stacks d’infrastructure en utilisant Pulumi (Python). Création de composants réutilisables pour standardiser le déploiement de micro-services et de ressources managées sur AWS.
  • Automatisation CI/CD : Conception de workflows GitHub Actions complexes pour l’automatisation des tests, de la sécurité et du déploiement continu des infrastructures et des applications.
  • Outillage interne (CLI) : Développement d’outils en ligne de commande (CLI) pour simplifier les interactions des développeurs avec l’infrastructure (gestion des environnements, secrets, logs).
  • Sécurisation Cloud (DevSecOps) : Mise en œuvre de politiques de sécurité automatisées (IAM, chiffrement) et d’analyse de vulnérabilités dans les pipelines de déploiement IaC.
  • Support & Mentorat : Accompagnement quotidien des équipes de développement et platform sur les problématiques Cloud, sur l’adoption des meilleures pratiques DevOps et Python.
Référentiel de données centralisé | Extia (Client : Bimpli)

Période : Août 2022 – Avril 2023

Organisation :

  • Équipe : 1 Scrum Master, 1 Lead Tech, 2 Développeurs.
  • Rôle : Lead Tech.
  • Méthode : Agile / Scrum.

Stack Technique :

  • Langage & Core : Python 3.9, Pydantic, AWS Lambda.
  • Data & Middleware : SQLModel, Alembic, Kafka.
  • Interfaces : Typer, FastAPI.
  • Infra & Ops : Github Action, Docker, AWS, Pulumi.
  • Developer Experience : MyPy, Pytest, Bandit, Pre-Commit, Black, Flake8.

Contexte : Bimpli est à l’origine une filiale du groupe BPCE spécialisée dans les avantages salariés, rachetée en 2023 par Swile. L’équipe Platform est responsable de la mise à disposition et du maintien en conditions opérationnelles d’une infrastructure Cloud robuste, sécurisée et automatisée pour l’ensemble des services de la fintech.

Mission : Pilotage technique de l’équipe, définition des standards de développement moderne sur un historique “legacy”, et déploiement de l’infrastructure Cloud.

Réalisations :

  • Industrialisation & Refactoring : Refonte globale du code existant pour atteindre les standards de qualité actuels (Architecture modulaire, typage strict, couverture de tests).
  • Architecture Data : Implémentation du modèle de données via SQLModel et intégration avec Kafka pour assurer la synchronisation des événements entre filiales.
  • DevOps & IaC : Mise en place d’une infrastructure robuste sur AWS gérée par Pulumi, avec une automatisation complète des déploiements via GitHub Actions.
  • Leadership & Protection d’équipe : Encadrement des développeurs et rôle de “bouclier technique” vis-à-vis du management. Gestion des frictions organisationnelles pour maintenir un rythme de delivery serein.
  • Gestion de Transition : Rédaction des spécifications techniques et accompagnement de l’équipe lors de la phase de rachat par Swile, jusqu’à l’interruption stratégique du projet.

Difficultés rencontrées : Difficultés de communication avec la gestion de projet (Scrum Master) et confrontation à des pratiques de développement legacy.

Framework Copernicus - Projet EOPF-CPM | Extia (Client : ESA x CSGroup)

Période : Décembre 2021 – Juillet 2022

Repository : EOPF-CPM

Organisation :

  • Équipe : 1 Scrum Master, 5 Développeurs, 1 Lead Tech.
  • Rôle : Lead Tech & Expert Python.
  • Méthode : SAFe

Stack Technique :

  • Langage & Core : Python 3.9, Dask, Numpy, Xarray.
  • Data & Format : Zarr, Datasets multi-dimensionnels (NetCDF-like).
  • Interfaces : Click, FastAPI.
  • Infra & Ops : GitLab CI, Docker, Kubernetes.
  • Developer Experience : MyPy, Pytest / Hypothesis, Bandit, Safety, Pre-Commit, Black, Pylint / Flake8, Sphinx, JupyterLab / Notebook.

Contexte : Conception ex-nihilo du EOPF-CPM (Earth Observation Processing Framework - Core Python Modules) pour l’ESA. L’enjeu était de standardiser l’exploitation des données massives issues des satellites Sentinel (Copernicus) via un framework unique capable d’abstraire la complexité des formats de données et des infrastructures de calcul.

Mission : Direction technique du projet, définition de l’architecture du framework et garant de la qualité logicielle. Livraison d’un socle technique robuste aujourd’hui utilisé pour la nouvelle génération de chaînes de traitement de données d’observation de la Terre (Earth Observation) au niveau européen.

Réalisations :

  • Architecture & Abstraction : Conception et implémentation de la couche d’abstraction logicielle permettant de manipuler des données hétérogènes de manière homogène. Définition des standards de développement pour garantir l’interopérabilité des briques de traitement.
  • Performance & Big Data : Architecture du moteur de calcul basé sur Dask pour la parallélisation des traitements de données géospatiales. Optimisation de la gestion mémoire et des graphes de tâches pour le traitement de fichiers volumineux.
  • Leadership Technique : Direction de l’équipe de développement (5 personnes), arbitrages technologiques critiques et mentorat sur les problématiques de performance Python et d’architecture distribuée, mise en œuvre des meilleures pratiques Python.
  • Qualité & Robustesse : Garant de la maintenabilité du code (couverture de tests, typage strict avec MyPy, documentation technique exhaustive). Mise en place de pipelines CI/CD complexes pour valider les performances à chaque release.
Plateforme PCX (Expérience Client) | Extia (Client : BVA)

Période : Janvier 2021 – Décembre 2021

Organisation :

  • Rôle : Développeur Applicatif & Cloud.
  • Équipe : 1 Scrum Master, 1 Product Owner, 1 UX/UI Designer, 3 Développeurs.
  • Méthode : Scrum.

Stack Technique :

  • Langage & Core : Python 3.8 / 3.9, Django, ReactJS.
  • Interfaces : FastAPI, Django Rest Framework (DRF).
  • Infra & Ops : Azure, Azure DevOps, Docker, Terraform.
  • Developer Experience : MyPy, Pytest, Black / Isort, Pylint, Pre-Commit, Bandit.

Contexte : BVA propose la solution PCX, une plateforme SaaS d’analyse et de suivi de campagnes de satisfaction client en temps réel. Utilisée par des grands comptes, elle permet de piloter des stratégies marketing basées sur des volumes importants de données de sondages.

Mission : Développement de nouvelles fonctionnalités métier, réduction de la dette technique accumulée et maintien en condition opérationnelle (MCO) de la plateforme sur l’environnement Azure.

Réalisations :

  • Migration & Cycle de vie : Pilotage technique du refactoring et de la montée de version de la stack logicielle (Python 3.8 vers 3.9).
  • Modernisation Infrastructure (IaC) : Refactorisation modulaire du code pour améliorer la maintenabilité et implémentation de la gestion d’infrastructure via Terraform sur Azure.
  • Ingénierie Produit : Implémentation de fonctionnalités de traitement et de visualisation de données de sondages orientées utilisateur final.
  • Résilience & MCO : Diagnostic, debugging et résolution d’incidents critiques sur l’environnement de production pour garantir la disponibilité du service SaaS.
Plateforme Numérique du Recensement Agricole | Extia (Client : BVA /Ministère de l'Agriculture)

Période : Mars 2020 – Décembre 2020

Organisation :

  • Équipe : 1 Scrum Master, 1 Product Owner, 1 UX/UI Designer, 3 Développeurs.
  • Rôle : Développeur Applicatif & Référent DevOps.
  • Méthode : Scrum

Stack Technique :

  • Langage & Core : Python 3.8, Django, Azure Function (Serverless), Reportlab.
  • Infra & Ops : Azure, Azure DevOps (Pipelines CI/CD).
  • Test de charge : Locust.
  • Developer Experience : MyPy, Pytest, Black, Pylint, Pre-Commit, Bandit.

Contexte : Réalisation du premier recensement décennal des agriculteurs français au format 100% numérique pour le compte du Ministère de l’Agriculture. Un projet à forte visibilité nationale impliquant des contraintes de montée en charge et de fiabilité des données collectées. L’enjeu était de collecter et de fiabiliser les données de l’ensemble des agriculteurs français via une plateforme capable de supporter des pics de charge massifs.

Mission : Conception et déploiement de l’infrastructure de collecte, et développement des moteurs de traitement de données au sein d’une architecture distribuée.

Réalisations :

  • Architecture & Scalabilité : Conception d’une architecture modulaire séparant les contextes d’exécution (Serveurs Web vs Workers/Files d’attente) pour garantir la résilience du système lors des pics de saisie.
  • Campagnes de Tests de Charge : Mise en place et exécution de tests de performance via Locust pour identifier les goulots d’étranglement et dimensionner l’infrastructure Azure en conséquence.
  • Impulsion DevOps (CI/CD) : Mise en place complète de la chaîne de livraison sur Azure DevOps. Automatisation intégrale des tests et déploiements, instaurant un standard de qualité inexistant au démarrage du projet.
  • Ingénierie Documentaire : Développement d’un moteur de génération de documents PDF complexes (récapitulatifs légaux) basé sur les données collectées en temps réel.
  • Outil de Pilotage Interne : Conception d’un système de suivi de planning et de gestion des relances pour optimiser le travail des agents de collecte.
  • Maintien en Conditions Opérationnelles (MCO) : Supervision de la plateforme en production, résolution d’anomalies critiques et pilotage des évolutions fonctionnelles à chaud durant la phase de recensement.
Rôle Transverse | Extia

Période : Décembre 2020 - Juillet 2023

Organisation :

  • Role : Lead Comet’ Développement

Mission : Animation et structuration de la communauté des développeurs au sein de l’agence.

Réalisations :

  • Veille & Transmission : Sélection de sujets technologiques stratégiques et organisation de présentations techniques (Talks/BBL).
  • Animation : Préparation et animation de sessions de partage de bonnes pratiques sur l’écosystème Python et les méthodologies de développement.
  • Fédération : Création d’un espace d’échange permettant aux consultants de monter en compétence mutuellement.
Solutions pour Hackers Éthiques & Bug Bounty | YesWeHack

Période : Avril 2019 – Décembre 2019

Repositories : VDP Finder | YWH2BugTrackers

Organisation :

  • Rôle : Développeur R&D (Security Tooling).
  • Équipe : 1 Chef de projet, 1 Développeur R&D.

Stack Technique :

  • Langage & Core : Python 3.7, Django, JavaScript.
  • Interfaces & Web : Flask, Jinja2.
  • Infrastructure : SaltStack.
  • Developer Experience : Pytest, Black, Bandit (Analyse de sécurité statique).

Contexte : YesWeHack est la première plateforme européenne de Bug Bounty, mettant en relation entreprises et hackers éthiques. Pour fluidifier cette collaboration, la société développe des outils permettant d’automatiser la détection de programmes de sécurité et l’intégration des vulnérabilités dans les flux de travail des clients.

Mission : Conception et développement de solutions logicielles à destination des chercheurs en sécurité et outils de synchronisation pour les entreprises partenaires.

Réalisations :

  • Middleware de Synchronisation (YWH2BugTrackers) : Refonte complète des connecteurs bidirectionnels entre la plateforme et les outils de ticketing d’entreprise (Jira, etc.). Développement d’une architecture modulaire facilitant l’ajout de nouveaux trackers.
  • Outillage Browser (VDP Finder) : Développement d’une extension Firefox facilitant la reconnaissance pour les hackers. Implémentation d’un module d’analyse automatisée des fichiers robots.txt pour détecter les périmètres de sécurité (Vulnerability Disclosure Policies).
  • Gestion de Configuration : Utilisation de SaltStack pour l’automatisation et le déploiement des environnements de développement et de test.
  • Événementiel Technique (Le Hack 2019) : Responsable technique du site web de l’événement. Maintenance de la stack Flask/Jinja et mise en place d’un système de diffusion d’actualités en temps réel pour les participants.
Analyse de flux STANAG (POC) | Sopra Steria (BU Défense & Sécurité)

Période : Janvier 2019 – Avril 2019

Organisation :

  • Rôle : Développeur & Architecte IA (binôme).
  • Équipe : 1 Chef de projet, 1 Data Engineer, 1 Architecte logiciel, 1 Data Scientist.
  • Méthode : Cycle en V (Environnement défense).

Stack Technique :

  • Langage & Core : Python 3.7, Keras (Deep Learning).
  • Data & Observabilité : ElasticStack (ELK : Elasticsearch, Logstash, Kibana).
  • Infra & DevOps : Jenkins (CI/CD).
  • Developer Experience : Pytest, Conda.

Contexte : Les opérateurs de la DGA-MI réalisent manuellement la qualification des appareils de communication répondant aux normes OTAN (STANAG). Ce projet visait à mettre en place un Proof of Concept (POC) pour automatiser cette qualification. Le défi consistait à traiter des flux de données techniques massifs pour vérifier la conformité et la sécurité des transmissions militaires.

Mission : Compréhension et étude approfondie de la norme STANAG afin de concevoir une architecture neuronale et une infrastructure d’analyse de données capables de valider les flux, tout en offrant une interface de retour efficace pour les opérateurs.

Réalisations :

  • Analyse de Norme : Étude détaillée des spécifications techniques de la norme STANAG pour traduire les contraintes protocolaires en caractéristiques exploitables (features) et structurer les différentes couches (layers) du réseau de neurones.
  • Ingénierie IA : Co-conception d’une architecture de réseau de neurones semi-supervisé (Keras) pour la qualification automatique des flux. Implémentation d’un système de détection à seuil avec projection de données pour faciliter l’interprétation humaine.
  • Plateforme Big Data : Déploiement et configuration de la stack ELK. Développement d’un plugin Kibana sur-mesure permettant aux opérateurs de déclencher des analyses approfondies à la demande.
  • Industrialisation : Intégration de pipelines Jenkins pour l’automatisation des tests et la création de builds. Mise en œuvre d’un mirroring Conda pour sécuriser les environnements de développement.

Difficultés Rencontrées : La faible diversité des données d’entrée a constitué un défi majeur, limitant la validation statistique du système. Ce projet a mis en évidence l’importance critique de la représentativité des datasets pour la généralisation des règles de la norme STANAG.

ARTEMIS - Détection d'intrusion | Sopra Steria (BU Défense & Sécurité)

Période : Juillet 2018 – Décembre 2018

Organisation :

  • Rôle : Data Engineer.
  • Équipe : 1 Chef de projet, 1 Architecte logiciel, 1 Data Engineer, 1 Data Scientist.
  • Méthode : Cycle en V (Contraintes de sécurité défense).

Stack Technique :

  • Langages & IA : Scala, Python, DL4J (Deep Learning for Java).
  • Web & Interface : Ruby on Rails.
  • Infra & DevOps : Jenkins (CI/CD).
  • Developer Experience : JUnit.

Contexte: Le projet ARTEMIS constitue le socle technologique de l’IA de défense française, visant à créer une capacité de traitement massif de données et une “IA de confiance”. Dans ce cadre, l’objectif était de développer un système de détection d’intrusion (IDS) de nouvelle génération pour identifier et qualifier les menaces réseau en temps réel.

Mission : Industrialiser les modèles de détection neuronaux et concevoir les interfaces d’exploitation permettant l’interaction entre l’opérateur humain et l’intelligence artificielle (Human-in-the-loop).

Réalisations :

  • Ingénierie de Détection : Développement et intégration d’un moteur de détection d’anomalies réseau basé sur des réseaux de neurones.
  • Plateforme d’Exploitation (Interface) : Conception et développement d’une interface complète sous Ruby on Rails. Elle permet aux opérateurs cyber de qualifier les alertes détectées et d’enrichir dynamiquement le dataset d’entraînement pour affiner les modèles.
  • Industrialisation IA : Travail sur la robustesse du code et l’intégration des modèles de Deep Learning dans un environnement industriel.
  • Collaboration Multi-langage : Navigation agile entre les stacks Java/Scala (pour le traitement lourd) et Python/Ruby (pour la logique métier et l’interface), assurant la cohérence technique du projet.
Supervision en milieu contraint | Sopra Steria (BU Défense & Sécurité)

Période : Février 2018 – Juin 2018

Organisation :

  • Rôle : Développeur Applicatif & DevOps.
  • Équipe : 1 Chef de Projet, 1 Expert Sécurité, 3 à 5 Développeurs.
  • Méthode : Cycle en V (Normes de sécurité Défense).

Stack Technique :

  • Langages : Python 3.6, Java 7.
  • Supervision : Nagios.
  • Infra & DevOps : Jenkins (CI/CD).
  • Developer Experience : JUnit, unittest.

Contexte : Au sein de la BU Défense & Sécurité, ce projet traitait des enjeux de souveraineté nationale liés au monitoring d’infrastructures opérant en “mode dégradé”. Le défi technique résidait dans l’adaptation des outils à des environnements sous-marins, caractérisés par une connectivité intermittente et des ressources matérielles extrêmement limitées.

Mission : Développer des agents de supervision ultra-résilients et automatiser la chaîne de livraison logicielle pour garantir l’intégrité des déploiements.

Réalisations :

  • Ingénierie de Résilience : Développement d’un agent de supervision autonome (Python/Java). L’outil a été conçu pour collecter, stocker et transmettre des métriques de santé de manière intelligente, en s’adaptant aux contraintes de bande passante et d’isolement.
  • Intégration Nagios : Configuration et extension des capacités de Nagios pour supporter ces nouveaux protocoles de collecte spécifiques aux milieux contraints.
  • Industrialisation (CI/CD) : Mise en place et configuration complète d’une instance Jenkins. Automatisation de l’intégration continue pour fiabiliser le cycle de vie du logiciel dans un contexte où l’erreur humaine doit être proscrite.
  • Sécurité & Souveraineté : Application des bonnes pratiques de développement sécurisé pour répondre aux exigences de la DGA et des opérateurs d’importance vitale (OIV).
Évolutions logicielles comptables | ISAGRI

Période : Octobre 2017 – Décembre 2017

Organisation :

  • Rôle : Développeur Applicatif.
  • Équipe : 1 Chef de projet, 2 Développeurs.

Stack Technique :

  • Langages : C#, .NET Framework.
  • Interface : WPF (Windows Presentation Foundation).
  • Architecture : MVVM.

Contexte : ISAGRI est le leader européen des solutions numériques pour l’agriculture. J’ai intégré l’équipe responsable du logiciel de comptabilité phare du groupe, un outil critique utilisé par des milliers d’exploitations et de cabinets comptables pour répondre aux exigences réglementaires françaises.

Mission : Assurer la maintenance curative et l’évolution des modules applicatifs pour garantir la stabilité et la performance du logiciel face aux flux de données comptables.

Réalisations :

  • Maintenance Critique & Debugging : Identification et résolution d’anomalies complexes au sein d’interfaces riches (WPF). Travail sur la robustesse de l’UI et la gestion des états de saisie.
  • Optimisation de Logique Métier : Refactorisation de fragments de code sur les moteurs de calcul comptable pour améliorer la vitesse de traitement des écritures.
  • Qualité de Code : Application des patterns de conception propres à l’écosystème .NET (notamment MVVM) pour assurer la maintenabilité des évolutions livrées.