
Freelance Data & IA appliquée - conception de solutions data et modèles prédictifs concrets.Basée à Nantes et mobile à Paris et dans le Grand Ouest.
Freelance Data & IA, j’accompagne les organisations dans la conception de solutions intelligentes permettant de transformer leurs données en leviers d’action concrets. De la structuration et la fiabilisation des bases existantes au développement d’outils sur mesure, je conçois des systèmes robustes et exploitables, pensés pour s’intégrer naturellement aux environnements métiers.J’interviens également sur des projets d’IA appliquée : modèles prédictifs, analyse de textes, intégration d’IA générative et conception de systèmes agentiques capables d’interagir avec des bases de données ou des processus internes. Mon approche privilégie l’utilité réelle et l’impact opérationnel : chaque solution est conçue pour être compréhensible, maîtrisée et durable.Avec plus de cinq ans d’expérience dans des environnements exigeants, en France comme au Canada, et au sein de grands groupes tels que Orange, j’ai développé une capacité d’intégration rapide et une compréhension fine des écosystèmes data complexes. Autonome, structurée et orientée impact, je suis capable de prendre en main un sujet en profondeur, d’en saisir les enjeux métiers et de produire rapidement des solutions robustes, qu’il s’agisse de structurer des données, de concevoir un outil interne ou de mettre en place un modèle prédictif exploitable.
Mes points forts :
Collaboration fluide dans des environnements internationaux
Grâce à mon expérience professionnelle à l’international et au sein de grand groupe, je suis habituée à travailler en anglais et à collaborer avec des équipes réparties dans différents pays.Je m’intègre facilement dans des environnements multiculturels et facilite la communication entre les équipes techniques et métiers.
Compréhension rapide des problématiques métier
Grâce à mes expériences sur des projets variés (marketing, RH, finance, direction de programme etc.), je suis capable de comprendre rapidement un contexte métier et d’identifier comment les données et l’IA peuvent répondre à des enjeux opérationnels concrets.Cela me permet d’être rapidement autonome et de proposer des solutions pertinentes.
Capacité à transformer une idée en outil concret
Je conçois des solutions data qui vont au-delà de l’analyse : applications, automatisations ou outils d’aide à la décision directement utilisables par les équipes.Mon objectif est toujours de livrer des solutions exploitables et automatisées.
Approche pragmatique et conforme de l’IA
J’ai également développé une expertise autour des enjeux de gouvernance et de conformité liés aux systèmes d’IA, notamment dans le cadre de l'IA Act.Je veille à ce que les solutions développées soient non seulement performantes et utiles, mais aussi transparentes, maîtrisées et conformes aux exigences réglementaires.
Vision transverse de la data
Ayant travaillé à la fois sur : la qualité et l’architecture des données, la modélisation, la prédiction, la création d’outils data et applications et la visualisation de données, je dispose d’une vision globale des projets data, ce qui permet de concevoir des solutions cohérentes de bout en bout.
Des données de mauvaise qualité freinent les analyses, faussent les décisions et limitent toute initiative d’IA ou de prédiction. Avant de chercher à exploiter la donnée, il est essentiel de la comprendre, de la structurer et de la fiabiliser.J’interviens pour analyser l’existant, identifier les incohérences et mettre en place des solutions concrètes permettant d’assainir et d’organiser vos données. Cela peut inclure le nettoyage et le dédoublonnage avancé, la structuration de vos bases de données, la mise en place de contrôles qualité automatisés ou encore l’optimisation des flux de données.Mon objectif n’est pas uniquement technique : il s’agit de rendre vos données fiables, cohérentes et prêtes à être exploitées par vos équipes.Une base saine est la condition indispensable pour construire des outils performants et prendre des décisions éclairées.
Chaque entreprise possède des données, mais peu disposent d’outils réellement adaptés à leurs enjeux spécifiques. Les solutions génériques ne suffisent pas toujours à répondre à des problématiques métier complexes ou à des besoins internes précis.Je conçois et développe des solutions data sur mesure, pensées pour s’intégrer à votre écosystème existant et être utilisées concrètement par vos équipes. Cela peut prendre la forme d’applications, d’outils internes d’analyse ou d’automatisation, d’interfaces personnalisées, ou encore de solutions intégrant des briques d’IA comme des modèles prédictifs ou des systèmes conversationnels.Mon approche est à la fois technique et fonctionnelle : comprendre votre contexte, vos contraintes et vos objectifs afin de créer un outil utile, robuste et évolutif. L’objectif n’est pas seulement de produire une analyse, mais de livrer une solution exploitable, qui simplifie les processus, améliore la prise de décision et génère un impact mesurable.Chaque projet est conçu pour répondre précisément à votre besoin, avec une attention particulière portée à la clarté, à la fiabilité et à l’adoption par les utilisateurs.
Anticiper plutôt que constater : les modèles prédictifs permettent de transformer les données historiques en leviers d’action concrets. Encore faut-il que ces modèles soient pertinents, fiables et réellement intégrés aux processus existants.Je développe des modèles prédictifs adaptés à vos enjeux métier : prévisions de tendances, scoring, détection d’anomalies, classification ou analyse de textes (NLP). Chaque projet commence par une compréhension fine du contexte et des données disponibles, afin de construire une solution cohérente, interprétable et alignée avec vos objectifs opérationnels.J’intègre également des briques d’IA générative et des systèmes agentiques pour créer des assistants intelligents, automatiser l’exploitation de connaissances internes ou enrichir vos outils métiers. Chaque solution est conçue pour être exploitable, maîtrisée et alignée avec vos contraintes techniques et organisationnelles.Mon approche privilégie l’utilité et l’intégration. Un modèle n’a de valeur que s’il est exploitable : intégré dans un outil, connecté à vos flux de données, compréhensible par les équipes et capable d’éclairer la décision. Je conçois ainsi des solutions d’IA appliquée qui dépassent le simple prototype pour devenir de véritables outils d’aide à la décision.
Des données incomplètes, incohérentes ou dupliquées rendent les KPI peu fiables, ralentissent les équipes et compromettent tout projet d’IA ou d’automatisation.Beaucoup d’organisations accumulent des données sans réelle structuration :
règles métier implicites
doublons non détectés
tables mal organisées
flux peu maîtrisés
Résultat : perte de confiance dans la donnée.
Ce que je vous propose :
J’analyse, clarifie et fiabilise votre environnement data pour en faire une base exploitable, stable et prête à soutenir des projets à forte valeur ajoutée.Les étapes que je préconise :
Audit & diagnostic approfondi
Nettoyage & structuration
Sécurisation & contrôles
Documentation complète
Vos bénéfices
Réduction des risques stratégiques
Moins d’erreurs liées à des données incohérentes ou mal interprétées.
Gain de temps significatif pour les équipes
Moins de corrections manuelles, moins de vérifications constantes, moins de retraitements.
Standardisation et clarification des règles métier
Une vision partagée des définitions et indicateurs, évitant les interprétations divergentes.
Réduction des coûts cachés liés aux erreurs data
Moins d’anomalies, moins de décisions erronées, moins de perte d’énergie.
Restauration de la confiance dans la donnée
La donnée devient un actif stratégique fiable, et non une source d’incertitude.
Base prête pour l’IA et la prédiction
Des données structurées permettent de lancer des projets avancés sans repartir de zéro.
Les outils standards ne couvrent pas toujours vos besoins spécifiques.
Les équipes bricolent des fichiers Excel, multiplient les manipulations manuelles ou utilisent des systèmes peu adaptés.Résultat : perte de productivité et opérations manuelles chronophages.
Ce que je vous propose :
Je conçois et développe des solutions data sur mesure, pensées pour s’intégrer à votre écosystème et être utilisées concrètement par vos équipes.J’intègre également des briques d’IA générative et conçois des systèmes agentiques capables d’interagir avec vos bases de données, vos documents ou vos outils internes.Applications Python, interfaces interactives, automatisations intelligentes : chaque solution est adaptée à votre réalité métier.Les étapes que je préconise :
Cadrage stratégique
Conception & architecture
Développement
Déploiement & adoption
Documentation complète
Vos bénéfices :
Automatisation intelligente des tâches répétitives
Libération de temps pour les équipes sur des tâches à plus forte valeur ajoutée.
Outils parfaitement adaptés à votre réalité métier
Pas de compromis imposé par des solutions génériques.
Amélioration immédiate de la productivité
Processus plus fluides, moins d’erreurs humaines, moins de manipulations manuelles.
Adoption facilitée par les équipes
Des solutions pensées pour l’usage réel, pas uniquement pour la performance technique.
Accélération des cycles de décision
Des informations accessibles et exploitables en quelques clics.
Réduction de la dépendance à des outils fragmentés
Centralisation et simplification des traitements.
Retour sur investissement rapide
Un impact mesurable dès les premières semaines d’utilisation.
Automatisation de tâches complexes grâce à l’IA générative
Analyse de documents, synthèses automatiques, exploitation de la connaissance interne.
Agents intelligents capables d’interagir avec vos systèmes
Requêtes en langage naturel, assistants internes, automatisation avancée.
Positionnement technologique avancé et différenciant
Intégration maîtrisée de l’IA générative et des systèmes agentiques dans vos processus.
Beaucoup d’entreprises collectent des données mais restent dans l’analyse descriptive.
Elles constatent, mais n’anticipent pas.L’IA peut transformer ces données en avantage stratégique, à condition d’être correctement intégrée.
Ce que je vous propose :
Je développe des modèles prédictifs et des solutions d’IA appliquée conçus pour répondre à des problématiques métier concrètes : anticipation, classification, détection, automatisation intelligente.Les étapes que je préconise :
Cadrage stratégique
Exploration & structuration des données
Modélisation
Déploiement & mise en usage
Documentation & accompagnement
Vos bénéfices :
Anticipation plutôt que réaction
Capacité à prévoir des tendances, détecter des risques ou identifier des opportunités en amont.
Décisions basées sur des modèles robustes et interprétables
Moins d’intuition, plus de pilotage éclairé.
Valorisation stratégique de vos données existantes
Transformation d’un volume d’informations en avantage concurrentiel.
Optimisation des performances opérationnelles
Meilleure allocation des ressources grâce aux prédictions.
Les entreprises aidées :


Les outils utilisés :


Les entreprises aidées :


Les outils utilisés :



Les entreprises aidées :


Les outils utilisés :

Mise en place d’une architecture data
Contexte : l’organisation disposait de multiples sources de données utilisées par :
Des dashboards décisionnels
Des interfaces internes
Des systèmes d’agents
Des outils de ciblage marketing
L’objectif était de construire et maintenir une architecture data propre, robuste et évolutive, permettant d’alimenter efficacement l’ensemble des outils internes.
Résultat :
Mise en place d’une architecture claire et pérenne
Données centralisées et exploitables par différents outils
Support stratégique aux équipes décisionnelles
Base solide pour développements futurs (agents, prédictions, automatisations)
Responsable de la qualité des données
Contexte : dans le cadre d’une refonte de l’architecture data, plusieurs bases de données historiques, certaines âgées de plus de 20 ans, devaient être migrées vers un nouveau système.Ces bases n’avaient jamais été nettoyées ni uniformisées. Elles contenaient :
Des formats incohérents
Des champs non contraints (ex : lettres dans les numéros de téléphone)
Des adresses internationales mal structurées
Des doublons non détectés
Des règles métier non documentées
Or, ces données étaient critiques : une adresse erronée pouvait entraîner l’envoi d’un technicien à la mauvaise localisation.
Résultat :
Migration sécurisée vers la nouvelle architecture
Réduction des erreurs opérationnelles critiques
Données clients fiabilisées à l’échelle internationale
Amélioration du pilotage décisionnel
Transformation d’un environnement fragile en socle structuré et stratégique
Fiabilisation et dédoublonnage de bases de contacts
Contexte : une entreprise disposait de plusieurs fichiers de contacts issus de sources différentes, contenant :
De nombreux doublons
Des variations orthographiques (noms, entreprises, adresses)
Des incohérences de format (codes postaux, numéros, champs incomplets)
Des données partiellement erronées
L’enjeu était de consolider ces fichiers pour obtenir une base unique, fiable et exploitable.
Résultat :
Consolidation de plusieurs bases en une base unique fiable
Réduction significative des doublons
Amélioration de la qualité des données de contact
Automatisation du processus pour réutilisation future
Gain de temps pour les équipes internes
Automatisation du nettoyage de données prospects
Contexte : des données de contacts issues de concours (prospects) étaient régulièrement collectées via différents canaux.Ces fichiers ne respectaient pas les règles de structuration internes et ne pouvaient pas être intégrés directement dans les bases existantes ou les outils métiers.Le traitement était en grande partie manuel, chronophage et source d’erreurs.
Résultat :
Automatisation complète d’un processus auparavant manuel
Intégration fluide et rapide des nouveaux prospects
Réduction significative des erreurs de saisie
Gain de temps opérationnel pour les équipes marketing / commerciales
Meilleure qualité des données dès l’entrée dans le système
Déploiement d’un chatbot interne Teams
Une organisation souhaitait mettre à disposition de ses collaborateurs un chatbot interne accessible via Microsoft Teams afin de :
Centraliser l’accès aux fiches internes
Réduire les sollicitations répétitives
Fluidifier l’accès à l’information
Les contenus provenaient de différentes sources internes exposées via API.
Mon intervention :
Développement de DAGs en Python avec Apache Airflow permettant :
La connexion aux APIs internes
La récupération automatisée des fiches documentaires
Le nettoyage et structuration des contenus
Le chargement dans le service Question Answering d’Azure
Développement de la logique conversationnelle dans Azure Bot Composer qui :
Définit des scénarios de dialogue
Gère les incompréhensions
Structure les parcours utilisateurs
Publication du bot dans Microsoft Teams.
Résultat :
Accès simplifié à l’information interne
Réduction des sollicitations manuelles
Base de connaissance automatiquement mise à jour
Solution intégrée dans l’environnement de travail existant
Automatisation complète de la chaîne data -> chatbot
Analyse intelligente des retours clients
À la demande de l’équipe marketing en charge de la satisfaction client, une entreprise souhaitait mieux exploiter les sondages envoyés à leur client en post-achat.Ces sondages comprenaient :
Des réponses sélectionnables
Des champs libres avec commentaires détaillés
Le volume de retours était important, rendant l’analyse manuelle longue et difficilement exploitable à grande échelle.L’objectif était de transformer ces verbatims en insights actionnables pour améliorer l’expérience client.
Mon intervention :
Développement d’une application interactive en Python (Streamlit) permettant :
Le chargement des données de sondages post-achat
La pré-sélection automatique des catégories de satisfaction / insatisfaction (ex: qualité, personnel, service etc.)
L'ajout dynamique de nouvelles catégories
L'exploration intuitive des résultats
Intégration de Gemini pour :
Analyser les commentaires libres
Identifier les points clés de satisfaction et d'insatisfaction
Générer des synthèses par catégorie
Déploiement de l'application dans GCP.
Résultat :
Analyse automatisée de volumes importants de retours clients
Réduction drastique du temps d’analyse
Identification claire des priorités d’amélioration
Outil exploitable directement par l’équipe marketing
Solution mise en production, robuste et évolutive
Développement d’un outil d’analyse des évaluations annuelles
Dans le cadre des négociations annuelles, la direction souhaitait disposer d’un outil permettant d’analyser rapidement les fiches d’évaluation des consultants.Chaque collaborateur disposait de plusieurs fiches, complétées à la fin de chaque mission, comprenant :
Différentes catégories d’évaluation
Des notes selon un barème défini
Des commentaires qualitatifs détaillés
Le problème était que l’analyse était chronophage, dispersée et peu standardisée, rendant difficile la comparaison entre profils équivalents, de même pour un collaborateur disposant de nombreuses fiches d'évaluation.
Mon intervention :
Développement d’une application Python permettant :
Le chargement automatique des fiches d'évaluation
L'extraction et structuration des données
Le calcul des moyennes et indicateurs consolidés
La comparaison avec des profils à poste équivalent
Ajout d’une brique d’IA pour :
Analyser le sentiment des commentaires
Identifier les tendances récurrentes
Générer des synthèses automatiques
Apporter un éclairage qualitatif complémentaire aux scores chiffrés
Résultat :
Analyse instantanée de l’ensemble des évaluations d’un collaborateur
Vision consolidée et objective des performances
Comparaison facilitée entre profils similaires
Prise en compte du qualitatif grâce à l’IA
Gain de temps significatif pour la direction
Aide concrète à la prise de décision lors des négociations annuelles
Analyse du marché de l’emploi & détection de compétences émergentes
Dans un contexte d’évolution rapide des métiers, notamment dans la tech, les équipes RH avaient besoin d’une vision claire des compétences recherchées sur le marché.Les questions clés étaient :
Quelles compétences sont actuellement demandées par métier ?
Quelles sont celles en forte croissance ?
Lesquelles deviennent obsolètes ?
Quelles compétences sont proches ou complémentaires ?
Où se concentrent les offres d’emploi en France ?
L’objectif était de transformer un volume massif d’offres d’emploi en indicateurs exploitables.
Mon intervention :
Développement en Python de scripts de web scraping pour :
Récupérer automatiquement des offres d’emploi
Structurer les informations (métier, localisation, type de contrat, ancienneté…)
Constituer une base exploitable
Mise en place d'analyses avancées (plus de détails dans la 3ème section) :
Identification des compétences techniques, fonctionnelles et soft skills
Regroupement automatique en familles (langages, logiciels, méthodes, etc.)
Clustering calculant les proximités entre les compétences
Création d’une application R Shiny destinée aux équipes RH, permettant de :
Suivre l’évolution des compétences dans le temps
Identifier les compétences émergentes et en déclin
Visualiser les proximités entre compétences
Avoir une vision globale des offres d'emploi par métier : volume, localisation, top des entreprises recruteuses
Résultat :
Vision stratégique du marché de l’emploi
Identification proactive des compétences émergentes
Aide à l’adaptation des plans de recrutement
Meilleure anticipation des évolutions sectorielles
Outil décisionnel concret pour les RH
Centralisation d’une information dispersée en plateforme exploitable
Marketing prédictif - Ciblage intelligent des acheteurs mensuels
Pour une entreprise, l’enjeu était d’identifier les clients susceptibles d’effectuer un achat le mois suivant afin d’optimiser les campagnes marketing et augmenter le revenu.Deux prédictions complémentaires ont été développées, notamment autour du type de produit qu'ils seraient susceptibles d'acheter, afin d’affiner la personnalisation de chaque potentiel client.
Résultat :
Ciblage marketing optimisé
Personnalisation avancée des campagnes
Meilleure allocation des budgets CRM
Augmentation du taux d’engagement
Modèle exploitable par les équipes marketing
Pilotage d’un projet de segmentation & moteur de recommandation
Un cabinet externe était mandaté pour :
Construire une segmentation client
Développer un moteur de recommandation
L’objectif était d’améliorer la personnalisation marketing et la pertinence des offres proposées.
Mon intervention :
J’intervenais en tant que référente data côté entreprise pour :
Assurer le suivi du projet
Challenger les choix méthodologiques
Orienter les équipes sur les données disponibles
Valider la cohérence business des modèles
Garantir l’adéquation avec les besoins opérationnels
Résultat :
Recommandations alignées avec la stratégie
Réduction des risques liés au projet
Interaction fluide entre cabinet externe et équipes internes
Prédiction & Clustering des compétences à partir d’offres d’emploi
À partir d’offres d’emploi, l’objectif était de :
Identifier les compétences clés par métier
Détecter les compétences émergentes
Identifier les compétences en déclin
Comprendre les proximités entre compétences
Structurer ces informations dans une application RH
Le contexte globale de la mission est détaillé dans la section Data sur mesure. Dans cette section, l'accent est mis sur les modèles développés.
Mon intervention :
1. Détection automatique des compétences (NLP)Pour la détection automatique des compétences, plusieurs méthologies ont été mises en place :
Approche par dictionnaire enrichi
NLP avec vectorisation
Embeddings sémantiques
2. Analyse temporelle & détection de tendancesPour identifier les compétences émergentes ou obsolètes, nous avions utilisé plusieurs méthodologies :
Analyse de fréquence temporelle
Calcul du taux de croissance
Modélisation simple de tendance
3. Clustering des compétencesL’objectif était de comprendre quelles compétences sont complémentaires ou "interchangeables". Les méthodologies utilisées ont été :
Matrice de co-occurrence
Vectorisation des compétences
Algorithmes de clustering
4. Regroupement en familles de compétencesChaque compétence devait être attribuée à une famille de compétences (logiciel, language, méthode etc.). Dans le but d'attribuer une famille à chaque compétence, ces méthodes ont été utilisées :
Définissions des familles
Récupération des définitions Wikipédia pour l'attribution
Segmentation des compétences
Industrialisation de modèles prédictifs & clustering dans Dataiku
Une entreprise avait développé des modèles de prédiction et de clustering dans un environnement de développement sous Dataiku.L’objectif de la mission était d’industrialiser ces modèles et d’assurer leur passage en production dans un environnement stable et sécurisé.
Mon intervention :
Audit du bundle : vérification des flux, dépendances, recettes, scénarios et code custom (Python / SQL).
Phase de tests : tests fonctionnels et techniques des pipelines et des modèles (performance, cohérence des données, métriques, stabilité).
Optimisation : amélioration du code et des flux lorsque nécessaire : refactorisation, optimisation des requêtes, réduction des temps d’exécution, nettoyage des dépendances.
Déploiement en production : publication du bundle en environnement PROD, configuration des connexions et scénarios, planification des exécutions et mise en place du monitoring.
Résultat :
Mise en production sécurisée de modèles ML
Stabilisation des pipelines
Réduction des risques liés au déploiement
Amélioration des performances
Passage d’un projet dev à un usage opérationnel
Analyse des écarts de pricing des cabinets de conseil
L’entité Finance d’une entreprise souhaitait analyser les prix facturés par différents cabinets de conseil pour des consultants intervenant sur des postes similaires.L’objectif était d’identifier :
Des écarts significatifs de tarification
D’éventuelles tendances structurelles
Des surcoûts liés à certains prestataires à poste équivalent
La mission s’inscrivait dans un cadre exploratoire (POC).
Mon intervention :
Sur cette mission, j’intervenais en tant qu’experte data & méthodologie, ce qui comprenait :
Le cadrage de l’analyse statistique
Le choix des méthodes de modélisation
L'interprétation des résultats
La recommandations auprès des équipes Finance
Les développements techniques étaient réalisés par un autre data scientist.
Plusieurs approches ont été testées afin d’identifier d’éventuels écarts significatifs :
Analyse statistique descriptive
Régression linéaire multiple
Tests statistiques
Clustering
Le POC n’a pas permis d’identifier de corrélation structurelle claire entre cabinet et niveau de pricing à poste strictement équivalent.Les écarts observés semblaient davantage liés à :
La nature des missions
Le contexte projet
Le niveau d’expertise
La complexité des environnements
Contactez-moi via ce formulaire pour organiser un 1er appel et discuter ensemble de votre projet.