Imaginons des projets
qui font la différence.

À propos

Développeur en traitement de données sous toutes ses formes: de la visualisation à la création de processus de traitement en passant par les algorithmes d'apprentissage (IA).

J'interviens en tant qu'indépendant en traitement des données depuis 2018 pour des cabinets de conseil, grandes entreprises, startups et PME.

J'accompagne mes clients sur leur trajectoire de transformation digitale grâce à la diversité de mes compétences acquises au fil des missions en visualisation, traitement (processus de mise en forme et algorithmes de prédiction via Intelligence Artificielle) et architecture de stockage de données sur le Cloud. Fortement impliqué, je suis vigilant sur le niveau de performance attendu par mes clients.

J'aime la diversité des rencontres et des défis, ainsi que de prendre part à de nouveaux challenges technologiques et qui ont un impact positif. Grâce à mon activité entrepreneuriale et certains de mes clients, j'ai pu contribuer à favoriser l'accessibilité sur le terrain et numérique des personnes en situation de handicap.

Je suis basé à Montpellier, Occitanie mais mes activités m'amènent à me déplacer régulièrement à Paris. Je suis sans cesse à la recherche de nouvelles technologies et sujets que je partage via mon Blog.

N'hésitez pas à me contacter si vous souhaitez échanger sur vos données, un projet ou tout simplement me joindre.

Compétences

Création de bases de données

  • Définition avec le client du schéma de données avec les attributs et indicateurs pertinents avec l'usage final
  • Mise en production sur un service Cloud et sécurisation
  • Développement des connecteurs permettant d'ajouter les données

Types de base de données avec lesquelles j'ai l'habitude de travailler :


PostgreSQL (relationnelle en SQL), MongoDB (orientée document), InfluxDB (Séries temporelles) et Neo4j (orienté graph)

Collecte et transformation de données

  • Développement de chaînes de traitement de données ETL (Extract Transform Load) en Python.
  • Collecte de données auprés de services tiers via interface API (comme Google, Slack ou Teams) et sur des services de stockage (base de données, serveurs FTP, stockage de fichiers).
  • Développement de programmes de Scraping pour extraire les données de site web

Valorisation de données existantes

  • Création de Tableau de Bord
  • Développement d'algorithmes de prédiction (Machine Learning) en Python: Algorithmes de Clustering, Réseaux de neurones et regressions par exemple.
  • Création d'automatisations via des outils de NoCode comme Zapier et N8N pour des cas d'usage bien définis.

Outils de Business Intelligence avec lesquels j'ai l'habitude de travailler :


Google Data Studio, Dash, Grafana, Tableau Software et PowerBI

Architecture Cloud

  • Déploiement de services sur des services Cloud via Docker ou autre
  • Configuration réseau des services
  • Sécurisation: par exemple configuration de firewalls, whitelist IP, backup, mirroring, HTTPS etc
  • Versioning via Git

Services Cloud avec lesquels j'ai l'habitude de travailler :


Microsoft Azure, Google Cloud Platform (GCP), OVH, Amazon Web Services (AWS) et Oracle

Création de Backend Web / API

  • Développement de serveurs API permettant d'ouvrir les données d'une base de données par exemple.
  • Création d'authentifications via API comme OAuth 2.0, tokens JWT, services tiers comme Firebase ou API Key.
  • Mise en production avec des reverse proxy comme NGINX, Apache ou Traefik pour gérer plusieurs services et HTTPS entre autres.

Langages Web avec lesquels j'ai l'habitude de travailler :


Flask en Python et Node.JS en Javascript.

Compétences non techniques

  • Définitions de modèles économiques autour des données et d'une stratégie d'utilisation des données.
  • Formation aux outils permettant de manipuler des données et aux langages de programmation.
  • Vulgarisation de sujets techniques

Références Client

Transformationd de données XML
Budaviz - Startup financière

Mise en place d'une routine de collecte et transformation de gros volumes de fichiers XML et ajout de centaines de millions de lignes en base de données PostgreSQL pour ensuite une utilisation avec Tableau software.

Voir plus
Détail
  • Développement des scripts de collecte et transformation en Python et Bash (des Go de fichiers XML à mettre en forme)
  • Configuration en environnement de développement et en production de la base de données PostgreSQL (des centaines de million de lignes à stocker)
  • Suivi quotidien avec le client et création de la documentation au fur et à mesure
  • Mise en production sur serveurs OVH
  • Visualisation des données avec Tableau software
Site e-Commerce
CNRS - Labo ChimEco (MUSE)

Création d'un tableau de bord pour interpréter les données d'analyse collectées

Voir plus
Détail
    Projet de CNRS innovation
  • Recueil du besoin et des indicateurs à mettre en avant auprès des équipes du labo impliquées
  • Mise en forme de la donnée et connection à des sources de données externes (via API) pour enrichir.
  • Création de la plateforme en Python avec la bibliothèque Dash
  • Mise en service au sein du labo pour garantir un accès aux personnes impliquées
Site e-Commerce
BEN - Startup secteur RH

Développement de tunnels d'extraction, transformation et stockage de données (ETL) depuis les API de Slack et Google vers des bases de données PostgreSQL sur Azure. Développement de modèles de prediction de l'attention d'utilisateurs à partir de leurs méta données de messages, emails, calendrier et visio-conférences.

Voir plus
Détail
    Création de la première architecture technique et stratégie tech de la startup.
  • Recueil du besoin pour élaborer un schéma de données puis création des bases de données PostgreSQL
  • Exploration des interfaces API de Slack et Google afin de récupérer l'ensemble des méta-données de messages, mails, calendriers et visios. Création des tunnels de transformation de données en Python.
  • Mise en production de l'architecture sur le Cloud Azure et étude comparative des offres cloud. Mise en production sur serveurs d'outils de visualisation (Redash), d'automation (N8N) et de gestion de données (NocoDB). Configurations sur Docker.
  • Sécurisation de l'architecture : mise en place de mirroring et backups automatiques sur les BDD, chiffrement des bases, whiteliste IP, configuration de firewalls.
  • Développement d'algorithmes permettant de mesurer l'attention des utilisateurs à partir des méta-données.

Accéder à BEN.HR

Site e-Commerce
Comité départemental du tourisme du Nord

Accompagnement sur la mise en ligne d'une plateforme Open Data. Création des extractions et transformations de données auprès des partenaires de l'agence. Développement d'un CRM sur mesure pour la gestion des projets.

Voir plus
Détail
  • Recueil des besoins en terme de données dans l'agence.
  • Création des fonctions d'extraction, transformation et load à partir des sources de données touristiques en Python.
  • Développement d'un outil de gestion de projets (CRM) sur mesure en React.JS avec une API en backend qui permet d'interfacer une base de données MongoDB.
  • Configuration de la plateforme Open Data à partir de l'outil OpenDataSoft et connexion au différentes sources de données.
Anacrouse

Créations d'interfaces Webhook/API permettant de relier les données de prospects venant de publicités Facebook/Instagram vers une base de données CRM (Gestion de Relation Client).

Voir plus
Détail

Durée : 2 semaines
  • Serveur API REST en Python avec Flask
  • Utilisation de formulaires JSON
  • Interface Facebook for Business de gestion des publicités
OnePoint

Conseil en Data Science en Freelance pour le cabinet Onepoint. Développement de prototypes de Machine Learning et recherches de cas d'usage de l'Intelligence Artificielle pour des clients.

Voir plus
Détail
Durée : 8 mois à mi-temps
  • Création de documents client de benchmark, veille et recherche de cas d'usage
  • Développements de prototypes en Python avec souvent une composante Web pour arriver à un produit finit.
  • Prototypes avec de la donnée textuelle (NLP), image (Computer Vision) et algorithmes de recommandation.
  • Développement de serveurs sur le cloud Microsoft Azure et Raspberry Pi
Deloitte

Conseil en traitement de données & IA en Freelance pour le cabinet de conseil en management Deloitte. Mise en place d'une infrastructure de collecte et d'analyse de gros volumes de données pour analyser un sous marché automobile pour leur client.

Voir plus
Détail
Durée : 1 mois et demie temps plein
  • Mise en place d'une architecture de collecte de donnée sur le cloud Amazon Web Service
  • Création de scripts de scraping (récupération de données du web de façon automatique) en Python avec des méthodes de contournement et des proxies pour changer les IP.
  • Analyse des gros volumes de données récupérés
  • Rédaction d'un rapport sur la concurrence de notre client à partir des statistiques obtenues
Entreprise d'événementiel

Créations de robots de collecte (scraping) pour récupérer des prospects.

Voir plus
Détail
  • Développement de robots de scraping (collecte automatique de données du Web) en Python
  • Livraison d'une base de données des établissements recensés par ses concurrents pour s'en servir de base de propsection
Suez

Développement d'un logiciel de simulation de flux piétons dans les décheteries afin d'optimiser le positionnement des bennes et la construction.

Voir plus
Détail

Durée : 6 mois à mi-temps
  • Logiciel de simulation en Java
  • Traitement des données statistiques en Python
Cute kitten
Bakhtech

Formation en Data science et développement Backend. Accompagnement sur leur stratégie d'utilisation de la donnée pour faciliter l'accessibilité numérique des personnes mal voyantes ou avec un handicap cognitif.

Voir plus
Détail
  • Formation aux algorithmes de Machine learning et aux différentes façon de traiter les données (texte, image, structué)
  • Formation au développement backend : Déploiement sur le cloud avec Docker, comment programmé un serveur web, configuration SSL et de Nginx etc...

Accéder à Bakhtech

Expériences et Formation

Indépendant

Data Engineer Freelance

Réalisation de prestations en informatique pour tout type d'entreprises

Dévelopement de projets pour le compte de clients autour de la donnée et du Web:


Voir les missions réalisées
Septembre 2018 - Aujourd'hui | Paris et Montpellier, France IA SiteWeb Scraping Data Science
Co-Fondateur et Directeur Technique

Startup spécialisée dans le déplacement des personnes à mobilité réduite.

  • Mise en place de la stratégie avec mes associés, qui développent la partie commerciale et recueillent les besoins utilisateur.
  • Création de la société sur le plan juridique, gestion de la comptabilité et l'administratif.
Développement du système d'information et des services
  • Développement de l'architecture de collecte, transformation et stockage des données cartographiques avec ouverture via des APIs REST et GraphQL. Déploiement sur 2 services de Cloud. (Outils d'architecture et de Back-end)
  • Programation de 3 sites web avec React.JS et JQuery pour des clients et des outils de gestion de données interne. (Technos de Front-end)
Avril 2017 - Décembre 2021 | Grenoble, France Data Engineering API SIG React.JS Entrepreunariat
Consultant Data & Analytics

Service Analytics & Information Management (AIM) qui développe et met en production des projets d’Intelligence Artificielle (IA).

  • Développement d'algorithmes de machine learning sur du texte (Natural Language Processing) pour de la classification automatique de mails
  • Programation d'un prototype de traitement automatique de factures avec des algorithmes d'extraction de texte d'images (OCR) et avec le texte obtenu d'algorithmes de reconnaissance d'entités nommées (Named Entity Recognition)
  • Mission client sur de la collecte et analyse de gros volumes de données pour en faire l'analyse dans le secteur automobile.
Février 2018 - Octobre 2018 | Paris, France Data Science Machine Learning Scraping Consulting
Stagiaire en Deep Learning

Startup spécialisée dans la capture d'images hyper spectrrales à partir de drones

Elaboration d’une stratégie de Deep learning pour une application de reconnaissance de formes à partir d’un capteur hyperspectral miniaturisé sur smartphone.

  • Utilisation de Python et de la bibliothèque Tensorflow
  • Virtualisation de l'environnement de traitement de la donnée avec Docker
  • Rédaction d'un rapport des cas d'usage possibles des Réseaux de Neurones pour la startup
Février 2017 - Mars 2017 | Brest, France DeepLearning Python Tensorflow Réseaux de Neurones

Grenoble Ecole de Management

(GEM)

Grenoble, France

IMT Atlantique

(ex Télécom Bretagne, concours Mines-Ponts)

Brest, France

    Diplôme d'ingénieur en Data Science :
  • Machine Learning
  • Business Intelligence
  • Big Data
  • TOEFL : 620/677

Shanghai Jiao Tong University

(SJTU)

Shanghai, Chine

  • Échange universitaire de 6 mois
  • Data Science / Big Data

Classes préparatoires

Math-Physique (PSI*)

Lycée Joffre Montpellier, France

Récompenses

Interview Going Freelance

Média sur le Freelance | April 2019


Andyamo - Les Echos

Presse | Novembre 2019

Andyamo - Le Parisien

Presse | Juin 2019

Andyamo - BFM

Presse | Janvier 2020

Principe des Réseaux de données

Certification Institut Mines Télécom

Contact

Blog

___ /\ \ ___ \:\ \ ___ /\ \ \:\ \ /\__\ \:\ \ ___ /::\ \ /:/__/ \:\ \ /\ /:/\:\__\ /::\ \ ___ \:\__\ \:\/:/ \/__/ \/\:\ \__ /\ \ |:| | \::/__/ \:\/\__\ \:\ \|:| | \:\ \ \::/ / \:\__|:|__| \:\__\ /:/ / \::::/__/ \/__/ \/__/ ~~~~