Imaginons des projets
qui font la différence.
À propos
Développeur en traitement de données sous toutes ses formes: de la visualisation à la création de processus de traitement en passant par les algorithmes d'apprentissage (IA).
J'interviens en tant qu'indépendant en traitement des données depuis 2018 pour des cabinets
de conseil, grandes entreprises, startups et PME.
J'accompagne mes clients
sur leur trajectoire de transformation digitale grâce à la diversité de mes compétences
acquises au fil des missions en visualisation, traitement (processus
de mise en forme et algorithmes de prédiction via Intelligence Artificielle) et architecture de stockage de
données sur le Cloud. Fortement impliqué, je suis vigilant sur le niveau de performance attendu par mes
clients.
J'aime la diversité des rencontres et des défis, ainsi que de prendre part à de nouveaux challenges technologiques et qui ont un impact positif. Grâce à mon activité entrepreneuriale et certains de mes clients, j'ai pu contribuer à favoriser l'accessibilité sur le terrain et numérique des personnes en situation de handicap.
Je suis basé à Montpellier, Occitanie mais mes activités m'amènent à me déplacer régulièrement à Paris. Je suis sans cesse à la recherche de nouvelles technologies et sujets que je partage via mon Blog.
Compétences
Création de bases de données
- Définition avec le client du schéma de données avec les attributs et indicateurs pertinents avec l'usage final
- Mise en production sur un service Cloud et sécurisation
- Développement des connecteurs permettant d'ajouter les données
Types de base de données avec lesquelles j'ai l'habitude de travailler :
PostgreSQL (relationnelle en SQL), MongoDB (orientée document), InfluxDB (Séries temporelles) et Neo4j (orienté graph)
Collecte et transformation de données
- Développement de chaînes de traitement de données ETL (Extract Transform Load) en Python.
- Collecte de données auprés de services tiers via interface API (comme Google, Slack ou Teams) et sur des services de stockage (base de données, serveurs FTP, stockage de fichiers).
- Développement de programmes de Scraping pour extraire les données de site web
Valorisation de données existantes
- Création de Tableau de Bord
- Développement d'algorithmes de prédiction (Machine Learning) en Python: Algorithmes de Clustering, Réseaux de neurones et regressions par exemple.
- Création d'automatisations via des outils de NoCode comme Zapier et N8N pour des cas d'usage bien définis.
Outils de Business Intelligence avec lesquels j'ai l'habitude de travailler :
Google Data Studio, Dash, Grafana, Tableau Software et PowerBI
Architecture Cloud
- Déploiement de services sur des services Cloud via Docker ou autre
- Configuration réseau des services
- Sécurisation: par exemple configuration de firewalls, whitelist IP, backup, mirroring, HTTPS etc
- Versioning via Git
Services Cloud avec lesquels j'ai l'habitude de travailler :
Microsoft Azure, Google Cloud Platform (GCP), OVH, Amazon Web Services (AWS) et Oracle
Création de Backend Web / API
- Développement de serveurs API permettant d'ouvrir les données d'une base de données par exemple.
- Création d'authentifications via API comme OAuth 2.0, tokens JWT, services tiers comme Firebase ou API Key.
- Mise en production avec des reverse proxy comme NGINX, Apache ou Traefik pour gérer plusieurs services et HTTPS entre autres.
Langages Web avec lesquels j'ai l'habitude de travailler :
Flask en Python et Node.JS en Javascript.
Compétences non techniques
- Définitions de modèles économiques autour des données et d'une stratégie d'utilisation des données.
- Formation aux outils permettant de manipuler des données et aux langages de programmation.
- Vulgarisation de sujets techniques
Références Client

Mise en place d'une routine de collecte et transformation de gros volumes de fichiers XML et ajout de centaines de millions de lignes en base de données PostgreSQL pour ensuite une utilisation avec Tableau software.
Voir plus- Développement des scripts de collecte et transformation en Python et Bash (des Go de fichiers XML à mettre en forme)
- Configuration en environnement de développement et en production de la base de données PostgreSQL (des centaines de million de lignes à stocker)
- Suivi quotidien avec le client et création de la documentation au fur et à mesure
- Mise en production sur serveurs OVH
- Visualisation des données avec Tableau software

Création d'un tableau de bord pour interpréter les données d'analyse collectées
Voir plus-
Projet de CNRS innovation
- Recueil du besoin et des indicateurs à mettre en avant auprès des équipes du labo impliquées
- Mise en forme de la donnée et connection à des sources de données externes (via API) pour enrichir.
- Création de la plateforme en Python avec la bibliothèque Dash
- Mise en service au sein du labo pour garantir un accès aux personnes impliquées

Développement de tunnels d'extraction, transformation et stockage de données (ETL) depuis les API de Slack et Google vers des bases de données PostgreSQL sur Azure. Développement de modèles de prediction de l'attention d'utilisateurs à partir de leurs méta données de messages, emails, calendrier et visio-conférences.
Voir plus-
Création de la première architecture technique et stratégie tech de la startup.
- Recueil du besoin pour élaborer un schéma de données puis création des bases de données PostgreSQL
- Exploration des interfaces API de Slack et Google afin de récupérer l'ensemble des méta-données de messages, mails, calendriers et visios. Création des tunnels de transformation de données en Python.
- Mise en production de l'architecture sur le Cloud Azure et étude comparative des offres cloud. Mise en production sur serveurs d'outils de visualisation (Redash), d'automation (N8N) et de gestion de données (NocoDB). Configurations sur Docker.
- Sécurisation de l'architecture : mise en place de mirroring et backups automatiques sur les BDD, chiffrement des bases, whiteliste IP, configuration de firewalls.
- Développement d'algorithmes permettant de mesurer l'attention des utilisateurs à partir des méta-données.

Accompagnement sur la mise en ligne d'une plateforme Open Data. Création des extractions et transformations de données auprès des partenaires de l'agence. Développement d'un CRM sur mesure pour la gestion des projets.
Voir plus- Recueil des besoins en terme de données dans l'agence.
- Création des fonctions d'extraction, transformation et load à partir des sources de données touristiques en Python.
- Développement d'un outil de gestion de projets (CRM) sur mesure en React.JS avec une API en backend qui permet d'interfacer une base de données MongoDB.
- Configuration de la plateforme Open Data à partir de l'outil OpenDataSoft et connexion au différentes sources de données.

Créations d'interfaces Webhook/API permettant de relier les données de prospects venant de publicités Facebook/Instagram vers une base de données CRM (Gestion de Relation Client).
Voir plusDurée : 2 semaines
- Serveur API REST en Python avec Flask
- Utilisation de formulaires JSON
- Interface Facebook for Business de gestion des publicités

Conseil en Data Science en Freelance pour le cabinet Onepoint. Développement de prototypes de Machine Learning et recherches de cas d'usage de l'Intelligence Artificielle pour des clients.
Voir plusDurée : 8 mois à mi-temps
- Création de documents client de benchmark, veille et recherche de cas d'usage
- Développements de prototypes en Python avec souvent une composante Web pour arriver à un produit finit.
- Prototypes avec de la donnée textuelle (NLP), image (Computer Vision) et algorithmes de recommandation.
- Développement de serveurs sur le cloud Microsoft Azure et Raspberry Pi

Conseil en traitement de données & IA en Freelance pour le cabinet de conseil en management Deloitte. Mise en place d'une infrastructure de collecte et d'analyse de gros volumes de données pour analyser un sous marché automobile pour leur client.
Voir plusDurée : 1 mois et demie temps plein
- Mise en place d'une architecture de collecte de donnée sur le cloud Amazon Web Service
- Création de scripts de scraping (récupération de données du web de façon automatique) en Python avec des méthodes de contournement et des proxies pour changer les IP.
- Analyse des gros volumes de données récupérés
- Rédaction d'un rapport sur la concurrence de notre client à partir des statistiques obtenues

Créations de robots de collecte (scraping) pour récupérer des prospects.
Voir plus- Développement de robots de scraping (collecte automatique de données du Web) en Python
- Livraison d'une base de données des établissements recensés par ses concurrents pour s'en servir de base de propsection

Développement d'un logiciel de simulation de flux piétons dans les décheteries afin d'optimiser le positionnement des bennes et la construction.
Voir plusDurée : 6 mois à mi-temps
- Logiciel de simulation en Java
- Traitement des données statistiques en Python

Formation en Data science et développement Backend. Accompagnement sur leur stratégie d'utilisation de la donnée pour faciliter l'accessibilité numérique des personnes mal voyantes ou avec un handicap cognitif.
Voir plus- Formation aux algorithmes de Machine learning et aux différentes façon de traiter les données (texte, image, structué)
- Formation au développement backend : Déploiement sur le cloud avec Docker, comment programmé un serveur web, configuration SSL et de Nginx etc...
Expériences et Formation

Indépendant
Réalisation de prestations en informatique pour tout type d'entreprises
Dévelopement de projets pour le compte de clients autour de la donnée et du Web:
- Programmation d'architectures de traitement de données et d'algorithmes de prédiction (IA) (compétences en Data-Science)
- Développement d'interfaces de visualisation de données et de sites internet (vitrine ou E-Commerce ou Chatbots) (compétences en Front-end)
- Configuration de serveurs et bases de données (Back-End) sur le Cloud (compétences en Back-end)
Voir les missions réalisées
Startup spécialisée dans le déplacement des personnes à mobilité réduite.
- Mise en place de la stratégie avec mes associés, qui développent la partie commerciale et recueillent les besoins utilisateur.
- Création de la société sur le plan juridique, gestion de la comptabilité et l'administratif.
Développement du système d'information et des services
- Développement de l'architecture de collecte, transformation et stockage des données cartographiques avec ouverture via des APIs REST et GraphQL. Déploiement sur 2 services de Cloud. (Outils d'architecture et de Back-end)
- Programation de 3 sites web avec React.JS et JQuery pour des clients et des outils de gestion de données interne. (Technos de Front-end)
Service Analytics & Information Management (AIM) qui développe et met en production des projets d’Intelligence Artificielle (IA).
- Développement d'algorithmes de machine learning sur du texte (Natural Language Processing) pour de la classification automatique de mails
- Programation d'un prototype de traitement automatique de factures avec des algorithmes d'extraction de texte d'images (OCR) et avec le texte obtenu d'algorithmes de reconnaissance d'entités nommées (Named Entity Recognition)
- Mission client sur de la collecte et analyse de gros volumes de données pour en faire l'analyse dans le secteur automobile.
Startup spécialisée dans la capture d'images hyper spectrrales à partir de drones
Elaboration d’une stratégie de Deep learning pour une application de reconnaissance de formes à partir d’un capteur hyperspectral miniaturisé sur smartphone.
- Utilisation de Python et de la bibliothèque Tensorflow
- Virtualisation de l'environnement de traitement de la donnée avec Docker
- Rédaction d'un rapport des cas d'usage possibles des Réseaux de Neurones pour la startup
Grenoble, France
- Diplôme Parcours Grande Ecole :
- Comptabilité et gouvernance d'entreprise
- Cours de négociation et vente
- TOEIC : 915/990
- Mémoire de fin d'études : "Les impacts métiers de l'utilisation de la donnée et ses enjeux éthiques".
Brest, France
- Diplôme d'ingénieur en Data Science :
- Machine Learning
- Business Intelligence
- Big Data
- TOEFL : 620/677
Shanghai, Chine
- Échange universitaire de 6 mois
- Data Science / Big Data
Lycée Joffre Montpellier, France
Récompenses
Presse | Janvier 2020
Principe des Réseaux de données
Certification Institut Mines Télécom
Web sémantique et Web de données
Certification INRIA