Photo accueil Florian Blanchet

Imaginons des projets
qui font la différence.

À propos

Développeur en traitement de données sous toutes ses formes: de la visualisation à la création de processus de traitement en passant par les algorithmes d'apprentissage (IA).

J'interviens en tant qu'indépendant en traitement des données depuis 2018 pour des cabinets de conseil, grandes entreprises, startups et PME.

J'accompagne mes clients sur leur trajectoire de transformation digitale grâce à la diversité de mes compétences acquises au fil des missions en traitement de données (ETL), mise en place d'architecture de stockage de données sur le Cloud et tout type de valorisation des données (visualisation, algorithmes de Machine learning, automations). Fortement impliqué, je suis vigilant sur le niveau de performance attendu par mes clients.

J'aime la diversité des rencontres et des défis, ainsi que de prendre part à de nouveaux challenges technologiques et qui ont un impact positif. Grâce à mon activité entrepreneuriale et certains de mes clients, j'ai pu contribuer à favoriser l'accessibilité sur le terrain et numérique des personnes en situation de handicap.

Je suis basé à Montpellier, Occitanie mais mes activités m'amènent à me déplacer régulièrement à Paris. Je suis sans cesse à la recherche de nouvelles technologies et sujets que je partage via mon Blog.

N'hésitez pas à me contacter si vous souhaitez échanger sur vos données, un projet ou tout simplement me joindre.

Compétences

Collecte et transformation de données

  • Développement de chaînes de traitement de données ETL (Extract Transform Load) en Python.
  • Mise en place d'outils tels que DBT (orchestration de requêtes SQL) et Airflow (ETL Python).
  • Collecte de données auprès de services tiers via interface API (comme Google, Slack ou Teams) et sur des services de stockage (base de données, serveurs FTP, stockage de fichiers).
  • Développement de programmes de Scraping pour extraire les données de site web

Création de bases de données

  • Définition avec le client du schéma de données avec les attributs et indicateurs pertinents avec l'usage final
  • Mise en production sur un service Cloud et sécurisation
  • Développement des connecteurs permettant d'ajouter les données
  • Développement de requêtes SQL

Types de base de données avec lesquelles j'ai l'habitude de travailler :


Datawarehouse(BigQuery), DataLake(Bucket S3, Google Cloud Storage ou FTP), PostgreSQL (relationnelle en SQL), MongoDB (orientée document), InfluxDB (Séries temporelles) et Neo4j (orienté graph)

Valorisation de données existantes

  • Création de Tableau de Bord (Data Studio, Tableau, PowerBI)
  • Développement d'algorithmes de prédiction (Machine Learning) en Python: Algorithmes de Clustering, Réseaux de neurones et regressions par exemple.
  • Création d'automatisations via des outils de NoCode comme Zapier, Make ou N8N pour des cas d'usage bien définis.

Outils de Business Intelligence avec lesquels j'ai l'habitude de travailler :


Google Data Studio, Dash, Grafana, Tableau Software et PowerBI

Création de Backend Web / API

  • Développement de serveurs API permettant d'ouvrir les données d'une base de données par exemple.
  • Création d'authentifications via API comme OAuth 2.0, tokens JWT, services tiers comme Firebase ou API Key.
  • Mise en production avec des reverse proxy comme NGINX, Apache ou Traefik pour gérer plusieurs services et HTTPS entre autres.

Langages Web avec lesquels j'ai l'habitude de travailler :


Flask en Python et Node.JS en Javascript.

Architecture Cloud

  • Déploiement de services sur des services Cloud via Docker ou autre
  • Configuration réseau des services
  • Sécurisation: par exemple configuration de firewalls, whitelist IP, backup, mirroring, HTTPS etc
  • Versioning via Git
  • Mise en place de tests

Services Cloud avec lesquels j'ai l'habitude de travailler :


Microsoft Azure, Google Cloud Platform (GCP), OVH, Amazon Web Services (AWS) et Oracle

Compétences non techniques

  • Définitions de modèles économiques autour des données et d'une stratégie d'utilisation des données.
  • Formations aux outils permettant de manipuler des données et aux langages de programmation.
  • Vulgarisation de sujets techniques

Références Client

Background site deepreach.com
DeepReach - Publicité en ligne (AdTech)

Renfort technique pour la conception et l’amélioration des systèmes de gestion de campagnes publicitaires. Mission de développement Backend (Python Flask Serverless sur AWS et BDD PostgreSQL) et traitement de données (DBT, SQL et Airbyte).

Voir plus
Détail Durée : 4 mois à temps plein en 100% remote, équipe à Paris
    Senior Backend Développeur / Data Engineer Freelance.
  • Renfort technique pour la conception et l’amélioration des systèmes de gestion de campagnes publicitaires.
  • Environnement serverless sur AWS en Python / SQL via Flask et PostgreSQL. Attention particulière à la qualité du code avec des tests unitaires et e2e et une chaîne de CI/CD robuste.
  • Création de data pipelines en Python et via DBT. Mise en place de la CI/CD avec terraform et Github Actions pour tenir à jour certaines extractions utilisant Airbyte.
  • Maintenance et amélioration du backend relatif au traitement des données de finance de l’entreprise.
  • Mise en place d’outils pour piloter la marge et les indicateurs financiers.

Accéder au site de DeepReach

Background site onefinestay.com
Onefinestay (Groupe Accor) - Hôtellerie de luxe

Client basé à Londres et donc mission en Anglais. Développement d'ETL Python sur Airflow. Mise en production de DBT et de centaines de requêtes SQL de transformation de données. Gestion du datawarehouse (BigQuery) et lien avec les équipes métier. Développement de tableaux de bord sur Looker Studio.

Voir plus
Détail Durée : 2 ans à temps plein en 100% remote, équipe à Londres
    Senior Data Engineer Freelance en 100% télétravail avec déplacements à Londres et Paris.
  • Maintenance et Développement de DAG Airflow en Python pour extraire les données de CRM, backends, bases de données, et plusieurs autres systèmes.
  • Migration de centaines de requêtes SQL vers DBT et configuration de l'environnement.
  • Création d'un script de synchronization entre les données du datawarehouse et l'ERP (logiciel de comptabilité) Oracle Netsuite.
  • Développement de requêtes SQL pour pouvoir ouvrir la donnée sur Looker Studio (ex Google Data Studio)
  • Gestion du datawarehouse sur BigQuery et du datalake Google Cloud Storage
  • Création de dashboards et exports automatisés pour le métier.

Accéder au site de Onefinestay

Dashboard fait pour le CNRS
CNRS - Labo ChimEco (MUSE)

Création d'un tableau de bord pour interpréter les données d'analyse collectées

Voir plus
Détail
    Projet de CNRS innovation
  • Recueil du besoin et des indicateurs à mettre en avant auprès des équipes du labo impliquées
  • Mise en forme de la donnée et connection à des sources de données externes (via API) pour enrichir.
  • Création de la plateforme en Python avec la bibliothèque Dash
  • Mise en service au sein du labo pour garantir un accès aux personnes impliquées
CRM fait pour le Département du Nord
Département du Nord

Accompagnement du comité départementale du tourisme sur la mise en ligne d'une plateforme Open Data. Création des extractions et transformations de données auprès des partenaires de l'agence. Développement d'un CRM sur mesure pour la gestion des projets.

Voir plus
Détail Durée : 1 an et demie à temps partiel
  • Recueil des besoins en terme de données dans l'agence.
  • Création des fonctions d'extraction, transformation et load à partir des sources de données touristiques en Python.
  • Développement d'un outil de gestion de projets (CRM) sur mesure en React.JS avec une API en backend qui permet d'interfacer une base de données MongoDB.
  • Configuration de la plateforme Open Data à partir de l'outil OpenDataSoft et connexion au différentes sources de données.
icon Suez
Suez

Développement d'un logiciel de simulation de flux piétons dans les décheteries afin d'optimiser le positionnement des bennes et la construction.

Voir plus
Détail

Durée : 6 mois à mi-temps
  • Logiciel de simulation en Java
  • Traitement des données statistiques en Python
Site web de BEN startup
BEN - Startup RH

Développement de tunnels d'extraction, transformation et stockage de données (ETL) depuis les API de Slack et Google vers des bases de données PostgreSQL sur Azure. Développement de modèles de prediction de l'attention d'utilisateurs à partir de leurs méta données de messages, emails, calendrier et visio-conférences.

Voir plus
Détail Durée : 6 mois à mi-temps
    Création de la première architecture technique et stratégie tech de la startup.
  • Recueil du besoin pour élaborer un schéma de données puis création des bases de données
  • Extraction via interfaces API des données Slack et Google afin de récupérer l'ensemble des méta-données de messages, mails, calendriers et visios. Création des tunnels de transformation de données en Python. Configuration de l'OAuth2.
  • Mise en production de l'architecture sur le Cloud Azure et étude comparative des offres cloud. Mise en production sur serveurs d'outils de visualisation (Redash), d'automation (N8N) et de gestion de données (NocoDB). Configurations sur Docker.
  • Sécurisation de l'architecture : mise en place de mirroring et backups automatiques sur les BDD, chiffrement des bases, whiteliste IP, configuration de firewalls.
  • Développement d'algorithmes permettant de mesurer l'attention des utilisateurs à partir des méta-données.
Transformationd de données XML
Budaviz - Startup Financière

Mise en place d'une routine de collecte et transformation de gros volumes de fichiers XML et ajout de centaines de millions de lignes en base de données PostgreSQL pour ensuite une utilisation avec Tableau software.

Voir plus
Détail
  • Développement des scripts de collecte et transformation en Python et Bash (des Go de fichiers XML à mettre en forme)
  • Configuration en environnement de développement et en production de la base de données PostgreSQL (des centaines de million de lignes à stocker)
  • Suivi quotidien avec le client et création de la documentation au fur et à mesure
  • Mise en production sur serveurs OVH
  • Visualisation des données avec Tableau software
icone onepoint
OnePoint - Consulting

Conseil en Data Science en Freelance pour le cabinet Onepoint. Développement de prototypes de Machine Learning et recherches de cas d'usage de l'Intelligence Artificielle pour des clients.

Voir plus
Détail Durée : 8 mois à mi-temps en Freelance en 100% télétravail
  • Création de documents client de benchmark, veille et recherche de cas d'usage
  • Développements de prototypes en Python avec souvent une composante Web pour arriver à un produit finit.
  • Prototypes avec de la donnée textuelle (NLP), image (Computer Vision) et algorithmes de recommandation.
  • Développement de serveurs sur le cloud Microsoft Azure et Raspberry Pi
Icone Deloitte
Deloitte - Consulting

Conseil en traitement de données & IA en Freelance pour le cabinet de conseil en management Deloitte. Mise en place d'une infrastructure de collecte et d'analyse de gros volumes de données pour analyser un sous marché automobile pour leur client.

Voir plus
Détail Durée : 1 mois et demie temps plein en Freelance en 100% télétravail
  • Mise en place d'une architecture de collecte de donnée sur le cloud Amazon Web Service
  • Création de scripts de scraping (récupération de données du web de façon automatique) en Python avec des méthodes de contournement et des proxies pour changer les IP.
  • Analyse des gros volumes de données récupérés
  • Rédaction d'un rapport sur la concurrence de notre client à partir des statistiques obtenues
Visuel du site CommonTV
Partenariat Unanimes x Microsoft

Site web de notation des programmes TV pour les personnes sourdes ou mal entendantes. Création d'un serveur backend avec une interface API pour Unanimes en partenariat avec Microsoft et Bakhtech.

Voir plus
Détail
  • Back-End en Node.JS avec API REST
  • Base de données MongoDB
  • Mise en production sur le Cloud d'Azure via Git avec une architecture Docker

Accéder au site

Récompenses / Avis Clients

Avis Guillaume Fontana

CTO à Onefinestay (Groupe Accor)

Florian has been working with us for 2 years. Initially, it was for a 6 months contract, consisting in migrating our data pipelines to work with the new systems we were implementing at time. Florian did very well, understood the business concepts quickly, our tech environment as well, meaning that the job was achieved in time, although it was not very easy with the amount of legacy transformation queries we had at the time. Since everything was going well, and that we had growing internal needs, I decided to continue working with Florian. He continued to clean up our legacy systems, and he migrated our whole ELT processes into DBT. He prepared training slides, and trained the teams internally. The job was achieved in less than 2 months. This greatly improved our ways of working, thus the internal teams satisfaction. Florian also worked on pushing our financial data coming from our backoffices to NetSuite. This was a very complex project, with multiple NetSuite customization needed. Florian never abandoned, even though it was really difficult to get all the required information sometimes. Florian worked on many other structural and strategic projects during these 2 years, and he never let me down. The only reason we had to stop working together is because we wanted to internalize the position, but Florian wanted to remain as a contractor, which I can fully understand. Florian is a true gem, he can work on very complex projects, and go to the bottom of them, without any doubts. He is also a very nice person, which is always a nice addition :) We will miss him, for sure.

Avis Anne Marie

Gérante à Budaviz

En plus d'un relationnel très agréable, Florian est consciencieux, rigoureux, à l'écoute tout en étant force de proposition. Florian a très vite compris mes besoins, à savoir la mise en place d'une base de données regroupant certaines données publiques que je souhaitais exploiter sur Tableau software. Il a réalisé plusieurs scripts permettant d'automatiser la mise à jour quotidienne de la base de données et fait le nécessaire pour installer ensuite celle-ci sur un serveur. Il m'a épaulée dans le choix d'une formule d'hébergement pour le serveur. Le travail rendu est très propre et bien documenté. Un vrai talent que je recommande totalement.

Avis Jean-Marc

Fondateur Finance BI

Expérience fluide et efficace avec Florian, je le recommande !

Interview Going Freelance

Média sur le Freelance | April 2019


Andyamo - Les Echos

Presse | Novembre 2019

Andyamo - Le Parisien

Presse | Juin 2019

Andyamo - BFM

Presse | Janvier 2020

Principe des Réseaux de données

Certification Institut Mines Télécom

Expériences et Formation

Bakcground indépendant

Indépendant

Data Engineer Freelance

Réalisation de prestations en informatique pour tout type d'entreprises

Dévelopement de projets de traitement et valorisation des donneés de mes clients.


Voir les compétences
Voir les missions réalisées
Septembre 2018 - Aujourd'hui | Full-remote / Montpellier, France IA ETL Base de données Data Science
Co-Fondateur et Directeur Technique

Startup spécialisée dans le déplacement des personnes à mobilité réduite.

  • Mise en place de la stratégie avec mes associés, qui développent la partie commerciale et recueillent les besoins utilisateur.
  • Création de la société sur le plan juridique, gestion de la comptabilité et l'administratif.

Développement du système d'information et des services :
  • Développement de l'architecture de collecte, transformation et stockage des données cartographiques avec ouverture via des APIs REST et GraphQL. Déploiement sur 2 services de Cloud. (Outils d'architecture et de Back-end)
  • Programation de 3 sites web avec React.JS et JQuery pour des clients et des outils de gestion de données interne. (Technos de Front-end)
Avril 2017 - Décembre 2021 | Grenoble, France Data Engineering API SIG React.JS Entrepreunariat
icone deloitte

DELOITTE Conseil

Consultant Data & Analytics

Service Analytics & Information Management (AIM) qui développe et met en production des projets d’Intelligence Artificielle (IA).

  • Développement d'algorithmes de machine learning sur du texte (Natural Language Processing) pour de la classification automatique de mails
  • Programation d'un prototype de traitement automatique de factures avec des algorithmes d'extraction de texte d'images (OCR) et avec le texte obtenu d'algorithmes de reconnaissance d'entités nommées (Named Entity Recognition)
  • Mission client sur de la collecte et analyse de gros volumes de données pour en faire l'analyse dans le secteur automobile.
Février 2018 - Octobre 2018 | Paris, France Data Science Machine Learning Scraping Consulting
Stagiaire en Deep Learning

Startup spécialisée dans la capture d'images hyper spectrales à partir de drones

Elaboration d’une stratégie de Deep learning pour une application de reconnaissance de formes à partir d’un capteur hyperspectral miniaturisé sur smartphone.

  • Utilisation de Python et de la bibliothèque Tensorflow
  • Virtualisation de l'environnement de traitement de la donnée avec Docker
  • Rédaction d'un rapport des cas d'usage possibles des Réseaux de Neurones pour la startup
Février 2017 - Mars 2017 | Brest, France DeepLearning Python Tensorflow Réseaux de Neurones

Grenoble Ecole de Management

(GEM)

Grenoble, France

    Diplôme Parcours Grande Ecole :
  • Comptabilité et gouvernance d'entreprise
  • Cours de négociation et vente
  • TOEIC : 915/990
  • Mémoire de fin d'études : "Les impacts métiers de l'utilisation de la donnée et ses enjeux éthiques".

IMT Atlantique

(ex Télécom Bretagne, concours Mines-Ponts)

Brest, France

    Diplôme d'ingénieur en Data Science :
  • Machine Learning
  • Business Intelligence
  • Big Data
  • TOEFL : 620/677

Shanghai Jiao Tong University

(SJTU)

Shanghai, Chine

  • Échange universitaire de 6 mois
  • Data Science / Big Data

Classes préparatoires

Math-Physique (PSI*)

Lycée Joffre Montpellier, France

Contact

Blog