Freelance Data & IA, j’accompagne les organisations dans la conception de solutions intelligentes permettant de transformer leurs données en leviers d’action concrets. De la structuration et la fiabilisation des bases existantes au développement d’outils sur mesure, je conçois des systèmes robustes et exploitables, pensés pour s’intégrer naturellement aux environnements métiers.J’interviens également sur des projets d’IA appliquée : modèles prédictifs, analyse de textes, intégration d’IA générative et conception de systèmes agentiques capables d’interagir avec des bases de données ou des processus internes. Mon approche privilégie l’utilité réelle et l’impact opérationnel : chaque solution est conçue pour être compréhensible, maîtrisée et durable.Avec plus de cinq ans d’expérience dans des environnements exigeants, en France comme au Canada, et au sein de grands groupes tels que Orange, j’ai développé une capacité d’intégration rapide et une compréhension fine des écosystèmes data complexes. Autonome, structurée et orientée impact, je suis capable de prendre en main un sujet en profondeur, d’en saisir les enjeux métiers et de produire rapidement des solutions robustes, qu’il s’agisse de structurer des données, de concevoir un outil interne ou de mettre en place un modèle prédictif exploitable.



Mes points forts :

  • Collaboration fluide dans des environnements internationaux

Grâce à mon expérience professionnelle à l’international et au sein de grand groupe, je suis habituée à travailler en anglais et à collaborer avec des équipes réparties dans différents pays.Je m’intègre facilement dans des environnements multiculturels et facilite la communication entre les équipes techniques et métiers.

  • Compréhension rapide des problématiques métier

Grâce à mes expériences sur des projets variés (marketing, RH, finance, direction de programme etc.), je suis capable de comprendre rapidement un contexte métier et d’identifier comment les données et l’IA peuvent répondre à des enjeux opérationnels concrets.Cela me permet d’être rapidement autonome et de proposer des solutions pertinentes.

  • Capacité à transformer une idée en outil concret

Je conçois des solutions data qui vont au-delà de l’analyse : applications, automatisations ou outils d’aide à la décision directement utilisables par les équipes.Mon objectif est toujours de livrer des solutions exploitables et automatisées.

  • Approche pragmatique et conforme de l’IA

J’ai également développé une expertise autour des enjeux de gouvernance et de conformité liés aux systèmes d’IA, notamment dans le cadre de l'IA Act.Je veille à ce que les solutions développées soient non seulement performantes et utiles, mais aussi transparentes, maîtrisées et conformes aux exigences réglementaires.

  • Vision transverse de la data

Ayant travaillé à la fois sur : la qualité et l’architecture des données, la modélisation, la prédiction, la création d’outils data et applications et la visualisation de données, je dispose d’une vision globale des projets data, ce qui permet de concevoir des solutions cohérentes de bout en bout.

Offre 1

Structuration & fiabilité des données


Des données de mauvaise qualité freinent les analyses, faussent les décisions et limitent toute initiative d’IA ou de prédiction. Avant de chercher à exploiter la donnée, il est essentiel de la comprendre, de la structurer et de la fiabiliser.J’interviens pour analyser l’existant, identifier les incohérences et mettre en place des solutions concrètes permettant d’assainir et d’organiser vos données. Cela peut inclure le nettoyage et le dédoublonnage avancé, la structuration de vos bases de données, la mise en place de contrôles qualité automatisés ou encore l’optimisation des flux de données.Mon objectif n’est pas uniquement technique : il s’agit de rendre vos données fiables, cohérentes et prêtes à être exploitées par vos équipes.Une base saine est la condition indispensable pour construire des outils performants et prendre des décisions éclairées.

Offre 2

Conception de solutions Data sur mesure


Chaque entreprise possède des données, mais peu disposent d’outils réellement adaptés à leurs enjeux spécifiques. Les solutions génériques ne suffisent pas toujours à répondre à des problématiques métier complexes ou à des besoins internes précis.Je conçois et développe des solutions data sur mesure, pensées pour s’intégrer à votre écosystème existant et être utilisées concrètement par vos équipes. Cela peut prendre la forme d’applications, d’outils internes d’analyse ou d’automatisation, d’interfaces personnalisées, ou encore de solutions intégrant des briques d’IA comme des modèles prédictifs ou des systèmes conversationnels.Mon approche est à la fois technique et fonctionnelle : comprendre votre contexte, vos contraintes et vos objectifs afin de créer un outil utile, robuste et évolutif. L’objectif n’est pas seulement de produire une analyse, mais de livrer une solution exploitable, qui simplifie les processus, améliore la prise de décision et génère un impact mesurable.Chaque projet est conçu pour répondre précisément à votre besoin, avec une attention particulière portée à la clarté, à la fiabilité et à l’adoption par les utilisateurs.

Offre 3

Modèles prédictifs & IA appliquée


Anticiper plutôt que constater : les modèles prédictifs permettent de transformer les données historiques en leviers d’action concrets. Encore faut-il que ces modèles soient pertinents, fiables et réellement intégrés aux processus existants.Je développe des modèles prédictifs adaptés à vos enjeux métier : prévisions de tendances, scoring, détection d’anomalies, classification ou analyse de textes (NLP). Chaque projet commence par une compréhension fine du contexte et des données disponibles, afin de construire une solution cohérente, interprétable et alignée avec vos objectifs opérationnels.J’intègre également des briques d’IA générative et des systèmes agentiques pour créer des assistants intelligents, automatiser l’exploitation de connaissances internes ou enrichir vos outils métiers. Chaque solution est conçue pour être exploitable, maîtrisée et alignée avec vos contraintes techniques et organisationnelles.Mon approche privilégie l’utilité et l’intégration. Un modèle n’a de valeur que s’il est exploitable : intégré dans un outil, connecté à vos flux de données, compréhensible par les équipes et capable d’éclairer la décision. Je conçois ainsi des solutions d’IA appliquée qui dépassent le simple prototype pour devenir de véritables outils d’aide à la décision.

Offre 1

Structuration & fiabilité des données


Des données incomplètes, incohérentes ou dupliquées rendent les KPI peu fiables, ralentissent les équipes et compromettent tout projet d’IA ou d’automatisation.Beaucoup d’organisations accumulent des données sans réelle structuration :

  • règles métier implicites

  • doublons non détectés

  • tables mal organisées

  • flux peu maîtrisés

Résultat : perte de confiance dans la donnée.

Ce que je vous propose :

J’analyse, clarifie et fiabilise votre environnement data pour en faire une base exploitable, stable et prête à soutenir des projets à forte valeur ajoutée.Les étapes que je préconise :

  • Audit & diagnostic approfondi

  • Nettoyage & structuration

  • Sécurisation & contrôles

  • Documentation complète

Vos bénéfices

  • Réduction des risques stratégiques

Moins d’erreurs liées à des données incohérentes ou mal interprétées.

  • Gain de temps significatif pour les équipes

Moins de corrections manuelles, moins de vérifications constantes, moins de retraitements.

  • Standardisation et clarification des règles métier

Une vision partagée des définitions et indicateurs, évitant les interprétations divergentes.

  • Réduction des coûts cachés liés aux erreurs data

Moins d’anomalies, moins de décisions erronées, moins de perte d’énergie.

  • Restauration de la confiance dans la donnée

La donnée devient un actif stratégique fiable, et non une source d’incertitude.

  • Base prête pour l’IA et la prédiction

Des données structurées permettent de lancer des projets avancés sans repartir de zéro.

Offre 2

Conception de solutions Data sur mesure


Les outils standards ne couvrent pas toujours vos besoins spécifiques.
Les équipes bricolent des fichiers Excel, multiplient les manipulations manuelles ou utilisent des systèmes peu adaptés.
Résultat : perte de productivité et opérations manuelles chronophages.

Ce que je vous propose :

Je conçois et développe des solutions data sur mesure, pensées pour s’intégrer à votre écosystème et être utilisées concrètement par vos équipes.J’intègre également des briques d’IA générative et conçois des systèmes agentiques capables d’interagir avec vos bases de données, vos documents ou vos outils internes.Applications Python, interfaces interactives, automatisations intelligentes : chaque solution est adaptée à votre réalité métier.Les étapes que je préconise :

  • Cadrage stratégique

  • Conception & architecture

  • Développement

  • Déploiement & adoption

  • Documentation complète

Vos bénéfices :

  • Automatisation intelligente des tâches répétitives

Libération de temps pour les équipes sur des tâches à plus forte valeur ajoutée.

  • Outils parfaitement adaptés à votre réalité métier

Pas de compromis imposé par des solutions génériques.

  • Amélioration immédiate de la productivité

Processus plus fluides, moins d’erreurs humaines, moins de manipulations manuelles.

  • Adoption facilitée par les équipes

Des solutions pensées pour l’usage réel, pas uniquement pour la performance technique.

  • Accélération des cycles de décision

Des informations accessibles et exploitables en quelques clics.

  • Réduction de la dépendance à des outils fragmentés

Centralisation et simplification des traitements.

  • Retour sur investissement rapide

Un impact mesurable dès les premières semaines d’utilisation.

  • Automatisation de tâches complexes grâce à l’IA générative

Analyse de documents, synthèses automatiques, exploitation de la connaissance interne.

  • Agents intelligents capables d’interagir avec vos systèmes

Requêtes en langage naturel, assistants internes, automatisation avancée.

  • Positionnement technologique avancé et différenciant

Intégration maîtrisée de l’IA générative et des systèmes agentiques dans vos processus.

Offre 3

Modèles prédictifs & IA appliquée


Beaucoup d’entreprises collectent des données mais restent dans l’analyse descriptive.
Elles constatent, mais n’anticipent pas.
L’IA peut transformer ces données en avantage stratégique, à condition d’être correctement intégrée.

Ce que je vous propose :

Je développe des modèles prédictifs et des solutions d’IA appliquée conçus pour répondre à des problématiques métier concrètes : anticipation, classification, détection, automatisation intelligente.Les étapes que je préconise :

  • Cadrage stratégique

  • Exploration & structuration des données

  • Modélisation

  • Déploiement & mise en usage

  • Documentation & accompagnement

Vos bénéfices :

  • Anticipation plutôt que réaction

Capacité à prévoir des tendances, détecter des risques ou identifier des opportunités en amont.

  • Décisions basées sur des modèles robustes et interprétables

Moins d’intuition, plus de pilotage éclairé.

  • Valorisation stratégique de vos données existantes

Transformation d’un volume d’informations en avantage concurrentiel.

  • Optimisation des performances opérationnelles

Meilleure allocation des ressources grâce aux prédictions.

Structuration & fiabilité des données


Les entreprises aidées :

Les outils utilisés :




Conception de solutions Data sur mesure


Les entreprises aidées :

Les outils utilisés :

Modèles prédictifs & IA appliquée


Les entreprises aidées :

Les outils utilisés :







Structuration & fiabilité des données




Mise en place d’une architecture data

Contexte : l’organisation disposait de multiples sources de données utilisées par :

  • Des dashboards décisionnels

  • Des interfaces internes

  • Des systèmes d’agents

  • Des outils de ciblage marketing

L’objectif était de construire et maintenir une architecture data propre, robuste et évolutive, permettant d’alimenter efficacement l’ensemble des outils internes.

Résultat :

  • Mise en place d’une architecture claire et pérenne

  • Données centralisées et exploitables par différents outils

  • Support stratégique aux équipes décisionnelles

  • Base solide pour développements futurs (agents, prédictions, automatisations)




Responsable de la qualité des données

Contexte : dans le cadre d’une refonte de l’architecture data, plusieurs bases de données historiques, certaines âgées de plus de 20 ans, devaient être migrées vers un nouveau système.Ces bases n’avaient jamais été nettoyées ni uniformisées. Elles contenaient :

  • Des formats incohérents

  • Des champs non contraints (ex : lettres dans les numéros de téléphone)

  • Des adresses internationales mal structurées

  • Des doublons non détectés

  • Des règles métier non documentées

Or, ces données étaient critiques : une adresse erronée pouvait entraîner l’envoi d’un technicien à la mauvaise localisation.

Résultat :

  • Migration sécurisée vers la nouvelle architecture

  • Réduction des erreurs opérationnelles critiques

  • Données clients fiabilisées à l’échelle internationale

  • Amélioration du pilotage décisionnel

  • Transformation d’un environnement fragile en socle structuré et stratégique




Fiabilisation et dédoublonnage de bases de contacts

Contexte : une entreprise disposait de plusieurs fichiers de contacts issus de sources différentes, contenant :

  • De nombreux doublons

  • Des variations orthographiques (noms, entreprises, adresses)

  • Des incohérences de format (codes postaux, numéros, champs incomplets)

  • Des données partiellement erronées

L’enjeu était de consolider ces fichiers pour obtenir une base unique, fiable et exploitable.

Résultat :

  • Consolidation de plusieurs bases en une base unique fiable

  • Réduction significative des doublons

  • Amélioration de la qualité des données de contact

  • Automatisation du processus pour réutilisation future

  • Gain de temps pour les équipes internes




Automatisation du nettoyage de données prospects

Contexte : des données de contacts issues de concours (prospects) étaient régulièrement collectées via différents canaux.Ces fichiers ne respectaient pas les règles de structuration internes et ne pouvaient pas être intégrés directement dans les bases existantes ou les outils métiers.Le traitement était en grande partie manuel, chronophage et source d’erreurs.

Résultat :

  • Automatisation complète d’un processus auparavant manuel

  • Intégration fluide et rapide des nouveaux prospects

  • Réduction significative des erreurs de saisie

  • Gain de temps opérationnel pour les équipes marketing / commerciales

  • Meilleure qualité des données dès l’entrée dans le système

Conception de solutions Data sur mesure




Déploiement d’un chatbot interne Teams

Une organisation souhaitait mettre à disposition de ses collaborateurs un chatbot interne accessible via Microsoft Teams afin de :

  • Centraliser l’accès aux fiches internes

  • Réduire les sollicitations répétitives

  • Fluidifier l’accès à l’information

Les contenus provenaient de différentes sources internes exposées via API.

Mon intervention :

Développement de DAGs en Python avec Apache Airflow permettant :

  • La connexion aux APIs internes

  • La récupération automatisée des fiches documentaires

  • Le nettoyage et structuration des contenus

  • Le chargement dans le service Question Answering d’Azure

Développement de la logique conversationnelle dans Azure Bot Composer qui :

  • Définit des scénarios de dialogue

  • Gère les incompréhensions

  • Structure les parcours utilisateurs

Publication du bot dans Microsoft Teams.

Résultat :

  • Accès simplifié à l’information interne

  • Réduction des sollicitations manuelles

  • Base de connaissance automatiquement mise à jour

  • Solution intégrée dans l’environnement de travail existant

  • Automatisation complète de la chaîne data -> chatbot




Analyse intelligente des retours clients

À la demande de l’équipe marketing en charge de la satisfaction client, une entreprise souhaitait mieux exploiter les sondages envoyés à leur client en post-achat.Ces sondages comprenaient :

  • Des réponses sélectionnables

  • Des champs libres avec commentaires détaillés

Le volume de retours était important, rendant l’analyse manuelle longue et difficilement exploitable à grande échelle.L’objectif était de transformer ces verbatims en insights actionnables pour améliorer l’expérience client.

Mon intervention :

Développement d’une application interactive en Python (Streamlit) permettant :

  • Le chargement des données de sondages post-achat

  • La pré-sélection automatique des catégories de satisfaction / insatisfaction (ex: qualité, personnel, service etc.)

  • L'ajout dynamique de nouvelles catégories

  • L'exploration intuitive des résultats

Intégration de Gemini pour :

  • Analyser les commentaires libres

  • Identifier les points clés de satisfaction et d'insatisfaction

  • Générer des synthèses par catégorie

Déploiement de l'application dans GCP.

Résultat :

  • Analyse automatisée de volumes importants de retours clients

  • Réduction drastique du temps d’analyse

  • Identification claire des priorités d’amélioration

  • Outil exploitable directement par l’équipe marketing

  • Solution mise en production, robuste et évolutive




Développement d’un outil d’analyse des évaluations annuelles

Dans le cadre des négociations annuelles, la direction souhaitait disposer d’un outil permettant d’analyser rapidement les fiches d’évaluation des consultants.Chaque collaborateur disposait de plusieurs fiches, complétées à la fin de chaque mission, comprenant :

  • Différentes catégories d’évaluation

  • Des notes selon un barème défini

  • Des commentaires qualitatifs détaillés

Le problème était que l’analyse était chronophage, dispersée et peu standardisée, rendant difficile la comparaison entre profils équivalents, de même pour un collaborateur disposant de nombreuses fiches d'évaluation.

Mon intervention :

Développement d’une application Python permettant :

  • Le chargement automatique des fiches d'évaluation

  • L'extraction et structuration des données

  • Le calcul des moyennes et indicateurs consolidés

  • La comparaison avec des profils à poste équivalent

Ajout d’une brique d’IA pour :

  • Analyser le sentiment des commentaires

  • Identifier les tendances récurrentes

  • Générer des synthèses automatiques

  • Apporter un éclairage qualitatif complémentaire aux scores chiffrés

Résultat :

  • Analyse instantanée de l’ensemble des évaluations d’un collaborateur

  • Vision consolidée et objective des performances

  • Comparaison facilitée entre profils similaires

  • Prise en compte du qualitatif grâce à l’IA

  • Gain de temps significatif pour la direction

  • Aide concrète à la prise de décision lors des négociations annuelles




Analyse du marché de l’emploi & détection de compétences émergentes

Dans un contexte d’évolution rapide des métiers, notamment dans la tech, les équipes RH avaient besoin d’une vision claire des compétences recherchées sur le marché.Les questions clés étaient :

  • Quelles compétences sont actuellement demandées par métier ?

  • Quelles sont celles en forte croissance ?

  • Lesquelles deviennent obsolètes ?

  • Quelles compétences sont proches ou complémentaires ?

  • Où se concentrent les offres d’emploi en France ?

L’objectif était de transformer un volume massif d’offres d’emploi en indicateurs exploitables.

Mon intervention :

Développement en Python de scripts de web scraping pour :

  • Récupérer automatiquement des offres d’emploi

  • Structurer les informations (métier, localisation, type de contrat, ancienneté…)

  • Constituer une base exploitable

Mise en place d'analyses avancées (plus de détails dans la 3ème section) :

  • Identification des compétences techniques, fonctionnelles et soft skills

  • Regroupement automatique en familles (langages, logiciels, méthodes, etc.)

  • Clustering calculant les proximités entre les compétences

Création d’une application R Shiny destinée aux équipes RH, permettant de :

  • Suivre l’évolution des compétences dans le temps

  • Identifier les compétences émergentes et en déclin

  • Visualiser les proximités entre compétences

  • Avoir une vision globale des offres d'emploi par métier : volume, localisation, top des entreprises recruteuses

Résultat :

  • Vision stratégique du marché de l’emploi

  • Identification proactive des compétences émergentes

  • Aide à l’adaptation des plans de recrutement

  • Meilleure anticipation des évolutions sectorielles

  • Outil décisionnel concret pour les RH

  • Centralisation d’une information dispersée en plateforme exploitable

Modèles prédictifs & IA appliquée




Marketing prédictif - Ciblage intelligent des acheteurs mensuels

Pour une entreprise, l’enjeu était d’identifier les clients susceptibles d’effectuer un achat le mois suivant afin d’optimiser les campagnes marketing et augmenter le revenu.Deux prédictions complémentaires ont été développées, notamment autour du type de produit qu'ils seraient susceptibles d'acheter, afin d’affiner la personnalisation de chaque potentiel client.

Résultat :

  • Ciblage marketing optimisé

  • Personnalisation avancée des campagnes

  • Meilleure allocation des budgets CRM

  • Augmentation du taux d’engagement

  • Modèle exploitable par les équipes marketing




Pilotage d’un projet de segmentation & moteur de recommandation

Un cabinet externe était mandaté pour :

  • Construire une segmentation client

  • Développer un moteur de recommandation

L’objectif était d’améliorer la personnalisation marketing et la pertinence des offres proposées.

Mon intervention :

J’intervenais en tant que référente data côté entreprise pour :

  • Assurer le suivi du projet

  • Challenger les choix méthodologiques

  • Orienter les équipes sur les données disponibles

  • Valider la cohérence business des modèles

  • Garantir l’adéquation avec les besoins opérationnels

Résultat :

  • Recommandations alignées avec la stratégie

  • Réduction des risques liés au projet

  • Interaction fluide entre cabinet externe et équipes internes




Prédiction & Clustering des compétences à partir d’offres d’emploi

À partir d’offres d’emploi, l’objectif était de :

  • Identifier les compétences clés par métier

  • Détecter les compétences émergentes

  • Identifier les compétences en déclin

  • Comprendre les proximités entre compétences

  • Structurer ces informations dans une application RH

Le contexte globale de la mission est détaillé dans la section Data sur mesure. Dans cette section, l'accent est mis sur les modèles développés.

Mon intervention :

1. Détection automatique des compétences (NLP)Pour la détection automatique des compétences, plusieurs méthologies ont été mises en place :

  • Approche par dictionnaire enrichi

  • NLP avec vectorisation

  • Embeddings sémantiques

2. Analyse temporelle & détection de tendancesPour identifier les compétences émergentes ou obsolètes, nous avions utilisé plusieurs méthodologies :

  • Analyse de fréquence temporelle

  • Calcul du taux de croissance

  • Modélisation simple de tendance

3. Clustering des compétencesL’objectif était de comprendre quelles compétences sont complémentaires ou "interchangeables". Les méthodologies utilisées ont été :

  • Matrice de co-occurrence

  • Vectorisation des compétences

  • Algorithmes de clustering

4. Regroupement en familles de compétencesChaque compétence devait être attribuée à une famille de compétences (logiciel, language, méthode etc.). Dans le but d'attribuer une famille à chaque compétence, ces méthodes ont été utilisées :

  • Définissions des familles

  • Récupération des définitions Wikipédia pour l'attribution

  • Segmentation des compétences




Industrialisation de modèles prédictifs & clustering dans Dataiku

Une entreprise avait développé des modèles de prédiction et de clustering dans un environnement de développement sous Dataiku.L’objectif de la mission était d’industrialiser ces modèles et d’assurer leur passage en production dans un environnement stable et sécurisé.

Mon intervention :

  1. Audit du bundle : vérification des flux, dépendances, recettes, scénarios et code custom (Python / SQL).

  2. Phase de tests : tests fonctionnels et techniques des pipelines et des modèles (performance, cohérence des données, métriques, stabilité).

  3. Optimisation : amélioration du code et des flux lorsque nécessaire : refactorisation, optimisation des requêtes, réduction des temps d’exécution, nettoyage des dépendances.

  4. Déploiement en production : publication du bundle en environnement PROD, configuration des connexions et scénarios, planification des exécutions et mise en place du monitoring.

Résultat :

  • Mise en production sécurisée de modèles ML

  • Stabilisation des pipelines

  • Réduction des risques liés au déploiement

  • Amélioration des performances

  • Passage d’un projet dev à un usage opérationnel




Analyse des écarts de pricing des cabinets de conseil

L’entité Finance d’une entreprise souhaitait analyser les prix facturés par différents cabinets de conseil pour des consultants intervenant sur des postes similaires.L’objectif était d’identifier :

  • Des écarts significatifs de tarification

  • D’éventuelles tendances structurelles

  • Des surcoûts liés à certains prestataires à poste équivalent

La mission s’inscrivait dans un cadre exploratoire (POC).

Mon intervention :

Sur cette mission, j’intervenais en tant qu’experte data & méthodologie, ce qui comprenait :

  • Le cadrage de l’analyse statistique

  • Le choix des méthodes de modélisation

  • L'interprétation des résultats

  • La recommandations auprès des équipes Finance

Les développements techniques étaient réalisés par un autre data scientist.

Plusieurs approches ont été testées afin d’identifier d’éventuels écarts significatifs :

  1. Analyse statistique descriptive

  2. Régression linéaire multiple

  3. Tests statistiques

  4. Clustering

Le POC n’a pas permis d’identifier de corrélation structurelle claire entre cabinet et niveau de pricing à poste strictement équivalent.Les écarts observés semblaient davantage liés à :

  • La nature des missions

  • Le contexte projet

  • Le niveau d’expertise

  • La complexité des environnements

Contactez-moi via ce formulaire pour organiser un 1er appel et discuter ensemble de votre projet.