Photo accueil Florian Blanchet

Imaginons des projets
qui font la différence.

À propos

Développeur en traitement de données sous toutes ses formes: de la visualisation à la création de processus de traitement en passant par les algorithmes d'apprentissage (IA).

J'interviens en tant qu'indépendant en traitement des données depuis 2018 pour des cabinets de conseil, grandes entreprises, startups et PME.

J'accompagne mes clients sur leur trajectoire de transformation digitale grâce à la diversité de mes compétences acquises au fil des missions en traitement de données (ETL), mise en place d'architecture de stockage de données sur le Cloud et tout type de valorisation des données (visualisation, algorithmes de Machine learning, automations). Fortement impliqué, je suis vigilant sur le niveau de performance attendu par mes clients.

J'aime la diversité des rencontres et des défis, ainsi que de prendre part à de nouveaux challenges technologiques et qui ont un impact positif. Grâce à mon activité entrepreneuriale et certains de mes clients, j'ai pu contribuer à favoriser l'accessibilité sur le terrain et numérique des personnes en situation de handicap.

Je suis basé à Montpellier, Occitanie mais mes activités m'amènent à me déplacer régulièrement à Paris. Je suis sans cesse à la recherche de nouvelles technologies et sujets que je partage via mon Blog.

N'hésitez pas à me contacter si vous souhaitez échanger sur vos données, un projet ou tout simplement me joindre.

Compétences

Collecte et transformation de données

  • Développement de chaînes de traitement de données ETL (Extract Transform Load) en Python.
  • Mise en place d'outils tels que DBT (orchestration de requêtes SQL) et Airflow (ETL Python).
  • Collecte de données auprès de services tiers via interface API (comme Google, Slack ou Teams) et sur des services de stockage (base de données, serveurs FTP, stockage de fichiers).
  • Développement de programmes de Scraping pour extraire les données de site web

Création de bases de données

  • Définition avec le client du schéma de données avec les attributs et indicateurs pertinents avec l'usage final
  • Mise en production sur un service Cloud et sécurisation
  • Développement des connecteurs permettant d'ajouter les données
  • Développement de requêtes SQL

Types de base de données avec lesquelles j'ai l'habitude de travailler :


Datawarehouse(BigQuery), DataLake(Bucket S3, Google Cloud Storage ou FTP), PostgreSQL (relationnelle en SQL), MongoDB (orientée document), InfluxDB (Séries temporelles) et Neo4j (orienté graph)

Valorisation de données existantes

  • Création de Tableau de Bord (Data Studio, Tableau, PowerBI)
  • Développement d'algorithmes de prédiction (Machine Learning) en Python: Algorithmes de Clustering, Réseaux de neurones et regressions par exemple.
  • Création d'automatisations via des outils de NoCode comme Zapier, Make ou N8N pour des cas d'usage bien définis.

Outils de Business Intelligence avec lesquels j'ai l'habitude de travailler :


Google Data Studio, Dash, Grafana, Tableau Software et PowerBI

Création de Backend Web / API

  • Développement de serveurs API permettant d'ouvrir les données d'une base de données par exemple.
  • Création d'authentifications via API comme OAuth 2.0, tokens JWT, services tiers comme Firebase ou API Key.
  • Mise en production avec des reverse proxy comme NGINX, Apache ou Traefik pour gérer plusieurs services et HTTPS entre autres.

Langages Web avec lesquels j'ai l'habitude de travailler :


Flask en Python et Node.JS en Javascript.

Architecture Cloud

  • Déploiement de services sur des services Cloud via Docker ou autre
  • Configuration réseau des services
  • Sécurisation: par exemple configuration de firewalls, whitelist IP, backup, mirroring, HTTPS etc
  • Versioning via Git
  • Mise en place de tests

Services Cloud avec lesquels j'ai l'habitude de travailler :


Microsoft Azure, Google Cloud Platform (GCP), OVH, Amazon Web Services (AWS) et Oracle

Compétences non techniques

  • Définitions de modèles économiques autour des données et d'une stratégie d'utilisation des données.
  • Formations aux outils permettant de manipuler des données et aux langages de programmation.
  • Vulgarisation de sujets techniques

Références Client

Background site onefinestay.com
Onefinestay (Groupe Accor) - Hôtellerie de luxe

Client basé à Londres et donc mission en Anglais. Développement d'ETL Python sur Airflow. Mise en production de DBT et de centaines de requêtes SQL de transformation de données. Gestion du datawarehouse (BigQuery) et lien avec les équipes métier. Développement de tableaux de bord sur Looker Studio.

Voir plus
Détail Durée : 2 ans à temps plein en 100% remote, équipe à Londres
    Senior Data Engineer Freelance en 100% télétravail avec déplacements à Londres et Paris.
  • Maintenance et Développement de DAG Airflow en Python pour extraire les données de CRM, backends, bases de données, et plusieurs autres systèmes.
  • Migration de centaines de requêtes SQL vers DBT et configuration de l'environnement.
  • Création d'un script de synchronization entre les données du datawarehouse et l'ERP (logiciel de comptabilité) Oracle Netsuite.
  • Développement de requêtes SQL pour pouvoir ouvrir la donnée sur Looker Studio (ex Google Data Studio)
  • Gestion du datawarehouse sur BigQuery et du datalake Google Cloud Storage
  • Création de dashboards et exports automatisés pour le métier.

Accéder au site de Onefinestay

Dashboard fait pour le CNRS
CNRS - Labo ChimEco (MUSE)

Création d'un tableau de bord pour interpréter les données d'analyse collectées

Voir plus
Détail
    Projet de CNRS innovation
  • Recueil du besoin et des indicateurs à mettre en avant auprès des équipes du labo impliquées
  • Mise en forme de la donnée et connection à des sources de données externes (via API) pour enrichir.
  • Création de la plateforme en Python avec la bibliothèque Dash
  • Mise en service au sein du labo pour garantir un accès aux personnes impliquées
CRM fait pour le Département du Nord
Département du Nord

Accompagnement du comité départementale du tourisme sur la mise en ligne d'une plateforme Open Data. Création des extractions et transformations de données auprès des partenaires de l'agence. Développement d'un CRM sur mesure pour la gestion des projets.

Voir plus
Détail Durée : 1 an et demie à temps partiel
  • Recueil des besoins en terme de données dans l'agence.
  • Création des fonctions d'extraction, transformation et load à partir des sources de données touristiques en Python.
  • Développement d'un outil de gestion de projets (CRM) sur mesure en React.JS avec une API en backend qui permet d'interfacer une base de données MongoDB.
  • Configuration de la plateforme Open Data à partir de l'outil OpenDataSoft et connexion au différentes sources de données.
icon Suez
Suez

Développement d'un logiciel de simulation de flux piétons dans les décheteries afin d'optimiser le positionnement des bennes et la construction.

Voir plus
Détail

Durée : 6 mois à mi-temps
  • Logiciel de simulation en Java
  • Traitement des données statistiques en Python
Site web de BEN startup
BEN - Startup RH

Développement de tunnels d'extraction, transformation et stockage de données (ETL) depuis les API de Slack et Google vers des bases de données PostgreSQL sur Azure. Développement de modèles de prediction de l'attention d'utilisateurs à partir de leurs méta données de messages, emails, calendrier et visio-conférences.

Voir plus
Détail Durée : 6 mois à mi-temps
    Création de la première architecture technique et stratégie tech de la startup.
  • Recueil du besoin pour élaborer un schéma de données puis création des bases de données
  • Extraction via interfaces API des données Slack et Google afin de récupérer l'ensemble des méta-données de messages, mails, calendriers et visios. Création des tunnels de transformation de données en Python. Configuration de l'OAuth2.
  • Mise en production de l'architecture sur le Cloud Azure et étude comparative des offres cloud. Mise en production sur serveurs d'outils de visualisation (Redash), d'automation (N8N) et de gestion de données (NocoDB). Configurations sur Docker.
  • Sécurisation de l'architecture : mise en place de mirroring et backups automatiques sur les BDD, chiffrement des bases, whiteliste IP, configuration de firewalls.
  • Développement d'algorithmes permettant de mesurer l'attention des utilisateurs à partir des méta-données.
Transformationd de données XML
Budaviz - Startup Financière

Mise en place d'une routine de collecte et transformation de gros volumes de fichiers XML et ajout de centaines de millions de lignes en base de données PostgreSQL pour ensuite une utilisation avec Tableau software.

Voir plus
Détail
  • Développement des scripts de collecte et transformation en Python et Bash (des Go de fichiers XML à mettre en forme)
  • Configuration en environnement de développement et en production de la base de données PostgreSQL (des centaines de million de lignes à stocker)
  • Suivi quotidien avec le client et création de la documentation au fur et à mesure
  • Mise en production sur serveurs OVH
  • Visualisation des données avec Tableau software
icone onepoint
OnePoint - Consulting

Conseil en Data Science en Freelance pour le cabinet Onepoint. Développement de prototypes de Machine Learning et recherches de cas d'usage de l'Intelligence Artificielle pour des clients.

Voir plus
Détail Durée : 8 mois à mi-temps en Freelance en 100% télétravail
  • Création de documents client de benchmark, veille et recherche de cas d'usage
  • Développements de prototypes en Python avec souvent une composante Web pour arriver à un produit finit.
  • Prototypes avec de la donnée textuelle (NLP), image (Computer Vision) et algorithmes de recommandation.
  • Développement de serveurs sur le cloud Microsoft Azure et Raspberry Pi
Icone Deloitte
Deloitte - Consulting

Conseil en traitement de données & IA en Freelance pour le cabinet de conseil en management Deloitte. Mise en place d'une infrastructure de collecte et d'analyse de gros volumes de données pour analyser un sous marché automobile pour leur client.

Voir plus
Détail Durée : 1 mois et demie temps plein en Freelance en 100% télétravail
  • Mise en place d'une architecture de collecte de donnée sur le cloud Amazon Web Service
  • Création de scripts de scraping (récupération de données du web de façon automatique) en Python avec des méthodes de contournement et des proxies pour changer les IP.
  • Analyse des gros volumes de données récupérés
  • Rédaction d'un rapport sur la concurrence de notre client à partir des statistiques obtenues
Visuel du site CommonTV
Partenariat Unanimes x Microsoft

Site web de notation des programmes TV pour les personnes sourdes ou mal entendantes. Création d'un serveur backend avec une interface API pour Unanimes en partenariat avec Microsoft et Bakhtech.

Voir plus
Détail
  • Back-End en Node.JS avec API REST
  • Base de données MongoDB
  • Mise en production sur le Cloud d'Azure via Git avec une architecture Docker

Accéder au site

ETL pipeline
Anacrouse

Créations d'interfaces Webhook/API permettant de collecter les données de prospects venant de publicités Facebook/Instagram vers une base de données CRM (Gestion de Relation Client).

Voir plus
Détail

Durée : 2 semaines
  • Serveur API REST en Python avec Flask
  • Configuration du Webhook et de l'API Facebook
  • Utilisation de formulaires JSON
  • Interface Facebook for Business de gestion des publicités

Expériences et Formation

Bakcground indépendant

Indépendant

Data Engineer Freelance

Réalisation de prestations en informatique pour tout type d'entreprises

Dévelopement de projets de traitement et valorisation des donneés de mes clients.


Voir les compétences
Voir les missions réalisées
Septembre 2018 - Aujourd'hui | Full-remote / Montpellier, France IA ETL Base de données Data Science
Co-Fondateur et Directeur Technique

Startup spécialisée dans le déplacement des personnes à mobilité réduite.

  • Mise en place de la stratégie avec mes associés, qui développent la partie commerciale et recueillent les besoins utilisateur.
  • Création de la société sur le plan juridique, gestion de la comptabilité et l'administratif.

Développement du système d'information et des services :
  • Développement de l'architecture de collecte, transformation et stockage des données cartographiques avec ouverture via des APIs REST et GraphQL. Déploiement sur 2 services de Cloud. (Outils d'architecture et de Back-end)
  • Programation de 3 sites web avec React.JS et JQuery pour des clients et des outils de gestion de données interne. (Technos de Front-end)
Avril 2017 - Décembre 2021 | Grenoble, France Data Engineering API SIG React.JS Entrepreunariat
icone deloitte

DELOITTE Conseil

Consultant Data & Analytics

Service Analytics & Information Management (AIM) qui développe et met en production des projets d’Intelligence Artificielle (IA).

  • Développement d'algorithmes de machine learning sur du texte (Natural Language Processing) pour de la classification automatique de mails
  • Programation d'un prototype de traitement automatique de factures avec des algorithmes d'extraction de texte d'images (OCR) et avec le texte obtenu d'algorithmes de reconnaissance d'entités nommées (Named Entity Recognition)
  • Mission client sur de la collecte et analyse de gros volumes de données pour en faire l'analyse dans le secteur automobile.
Février 2018 - Octobre 2018 | Paris, France Data Science Machine Learning Scraping Consulting
Stagiaire en Deep Learning

Startup spécialisée dans la capture d'images hyper spectrales à partir de drones

Elaboration d’une stratégie de Deep learning pour une application de reconnaissance de formes à partir d’un capteur hyperspectral miniaturisé sur smartphone.

  • Utilisation de Python et de la bibliothèque Tensorflow
  • Virtualisation de l'environnement de traitement de la donnée avec Docker
  • Rédaction d'un rapport des cas d'usage possibles des Réseaux de Neurones pour la startup
Février 2017 - Mars 2017 | Brest, France DeepLearning Python Tensorflow Réseaux de Neurones

Grenoble Ecole de Management

(GEM)

Grenoble, France

IMT Atlantique

(ex Télécom Bretagne, concours Mines-Ponts)

Brest, France

    Diplôme d'ingénieur en Data Science :
  • Machine Learning
  • Business Intelligence
  • Big Data
  • TOEFL : 620/677

Shanghai Jiao Tong University

(SJTU)

Shanghai, Chine

  • Échange universitaire de 6 mois
  • Data Science / Big Data

Classes préparatoires

Math-Physique (PSI*)

Lycée Joffre Montpellier, France

Récompenses

Interview Going Freelance

Média sur le Freelance | April 2019


Andyamo - Les Echos

Presse | Novembre 2019

Andyamo - Le Parisien

Presse | Juin 2019

Andyamo - BFM

Presse | Janvier 2020

Principe des Réseaux de données

Certification Institut Mines Télécom

Contact

Blog