À propos du candidat

“ Intéressé par les nouvelles technologies, j’évolue dans un environnement décisionnel. J’œuvre dans cette optique à développer des compétences aux travers de mes expériences professionnelles qui sont mises au service de mes clients”

Location

Education

M
Master II Mathématique, Informatique, Décision et Organisation (MIDO) 2020
Université Paris-Dauphine

Decisionnel en entreprise, Big Data, Data Mining, Talend, Power BI, Negociation, Droit des entreprise, Gouverance des SI, Knowledge Management, Entrepot de données, Data Viz, Conception Agile

Travail & Expérience

C
Consultant Data Engineer novembre 21, 2024 - novembre 21, 2024
TotalEnergies Digital Factory

Contexte projet : Mise en place d’un entrepôt de données permettant de centraliser les données issues des applications métiers et de les exploiter afin de répondre aux besoins de reporting de la branche RC (Raffinerie Chimie) Équipe : 10 ETP, Jira, Miro  Participation aux ateliers fonctionnels pour recueil de besoin  Participation aux ateliers techniques pour analyse des différents systèmes métiers (SAP, MERIDIAN, CREDO, MENDIX, OWL, OSITOOL, Temp Rep Access DB, etc…)  Mise en place de l’architecture technique.  Rédaction spécifications fonctionnelles et techniques, Dictionnaire de données  Modélisation de l’entrepôt de données et conception des flux d’alimentation  Extraction et ingestion des données brutes depuis les applications métiers et traitement.  Développement des Flux d’alimentation du datawarehouse sous Talend Studio  Amélioration de la qualité des données, construction et orchestration des data pipelines  Déploiement sur Talend Cloud et livraison chez le client.  Rédaction de la documentation d’exploitation et de mise en production  Transfert de compétence aux équipes internes.  Correction des anomalies rencontrées par le client Outils/Environnement : ETL Talend Studio 7.3, Talend Cloud administration, GitLab, DBeaver,Teradata, Azure DataFactory, Azure Datalake(Gen2, Gen2+), sqlDatabase

C
Consultant Data Engineer novembre 21, 2024 - novembre 21, 2024
Société Générale

Contexte projet : Projet de collecte et de traitement de données Financières pour répondre aux besoins réglementaires de la banque de détail Équipe : Wekan (Kanban), Jira Objectifs : Au sein d’une équipe « métier » de 12 personnes, en lien étroit avec le « Centre d’expertise BigData de la Société Générale » j’ai une mission d’analyse et d’expertise Data sur des problématiques définies par le métier dans le cadre des projets réglementaires portant sur les données financières, Tiers et Qualité des données Engagements, dans un contexte de projet mené en méthode Agile.  Recueillir les besoins d’analyses métiers et en proposer une traduction en algorithmes  Modéliser et charger des données dans un DataLab (HDFS)  Ordonnancer via Oozie l’ingestion et l’intégration des données (Tiers, Prestation, Sûreté) issues d’entrepôts de données via Sqoop vers le DataLake (Hadoop)  Mettre en place des contrôles fonctionnels sur les données dans le but de détecter des anomalies (Hive, T-SQL)  Suivre et améliorer le niveau de performance du traitement des données en fonction des besoins et leur intégrité  Mettre en place des solutions ergonomiques de restitution des résultats des traitements selon les besoins du métier  Enrichir les documents existants de connaissance sur les données concernées Outils/Environnement: Hadoop (HDFS), Hive, T-SQL , Shell , Oozie, Sqoop, Hue, Teradata , Github, Citrix, Kanban(Wekan), Impala, Talend Data Intégration, Spark

C
Consultant Data Eingineer novembre 21, 2024 - novembre 21, 2024
Enedis

Contexte projet : Projet de Migration Hortonworks vers cloudera Équipe : 6 ETP, Kanban, Jira Objectifs : 13 projets à migrer sur 3 environnements (DEV, PRE-PROD et PROD)  Préparer le GIT et créer les branches  Ajouter dans le Git tous les batchs (batchs de déploiement de projets compris) et les fichiers manquants  Créer des jobs Jenkins pour le déploiement de ces branches  Créer des jobs Jenkins pour le déploiement des fichiers de config sur le EdgeNode en vue de la montée de version  Identification des programmes potentiellement impactés par la migration  Relevé des impacts et mise à jour des fichiers de configurations, paramétrages des applications à migrer  Mise en place le workflow Gitflow pour avoir une mise en place industrielle des déploiements  Tests fonctionnels  Migrer le EdgeNode : Fichier de configurations, LOGS, Scripts (ordonnancement et utilitaires)  Réaliser la montée de version de Hbase Testing Utility: Montée de version et adaptation des tests unitaires de chaque produit  Migration du Code et des produits afférents : Hadoop, Spark, Hbase, Hbase Testing Utility, Scripts et batchs, Réalisation des tests Unitaires de chaque projet migré)  Qualification : De nouvelles données sur la base migré, des données existantes (Migration à blanc)  Run automatisé d’une semaine sur un environnement en fonctionnement ISO production  Mise à jour de la documentation nécessaire Outils/Environnement : Spark, Hadoop, Jenkins, Gitlab, GitFlow, Maven, Docker, EdgeNode, Hbase, Hbase Testing Utility, Kerberos, python

C
Consultant Data Engineer novembre 21, 2024 - novembre 21, 2024
EDF

Contexte projet : Tour de contrôle DMA « Superviser, analyser, alerter » Équipe : 2 ETP, kanban, Jira Objectifs : Améliorer la visibilité sur l’état de santé des applications, anticiper et agir en amont pour améliorer la MCO des applications (détection en amont des anomalies, Accélérer les phases de diagnostic et faciliter la communication transverse : DMA  Cadrage du besoin : définir ce dont a besoin le client  Définir le produit final  Cadrage des données : identifier les données, vérifier leur disponibilité, identifier le moyen d’accès  Appui sur la définition de l’architecture applicative et infrastructure (Traitement Batch & Traitement temps réel)  Etablir les flux pour rapatrier et rendre exploitable la data  Réalisation : développement, recette technique, appui à la recette fonctionnelle et maîtrise de la data.  Garant de la méthode agile pour mener à bien le projet Outils/Environnement : Apache NIFI, ETL Talend, Jenkins, Gitlab, GitFlow, PowerBI, PostgreSQL, Teradata, mRemoteNG, Shell

C
Consultant Data Engineer novembre 21, 2024 - novembre 21, 2024
NAVBLUE

Contexte projet : Analyse de consommation de carburant lors des vols. Équipe : 19 ETP, SAFe, équipe Offshore Objectifs : Développer une solution d’analyse de la consommation de « fuel » et d’identifier des axes d’optimisations de cette consommation.  Recueil et formalisation des besoins auprès des experts métiers (Proxy PO IBM France, PO & PM Airbus)  Réaliser la préparation et le recodage 1er niveau des données, intégration de ces données à partir de diverses sources  Modélisation, Implémentation et automatisation du pipeline permettant de traiter ces données de grand volume  Amélioration, optimisation du processus et l’algorithme de traitement des données pour favoriser le passage à l’échelle  Assurer l’exposition de ce grand volume de données dans l’infrastructure par d’autres équipes.  Réaliser des traitements décisionnels permettant d’établir des rapports (Dashboard) automatisés, des visualisations  Rédaction de la documentation (Fonctionnelle & technique) Outils/Environnement : PySpark, Hadoop, Spark SQL, Plateforme de cloud Airbus (Foundry), Oozie, CodeAuthoring (JupyterNotebook), Contour (PowerBI), Sqoop

C
Consultant Data Engineer novembre 21, 2024 - novembre 21, 2024
AIRBUS

Contexte projet : Aircraft Data Quality Analysis Équipe : 19 ETP, SAFe, equipe Offshore Objectifs : Assurer la Qualité des données sur des paramètres de vols pour le client ZAOG (Zero Aircraft On Ground) afin de détecter des anomalies.  Recueil du besoin auprès de l'équipe ZAOG (Zero Aircraft On Ground), et Expert Métiers.  Extraction de données depuis la plateforme Cloud Computing  Analyse et traitement des données avioniques (séries temporelles) : agrégation et visualisation.  Implémentation de modèles pour la détection d'anomalies des paramètres de vols : Auto-Encodeurs  Création du pipeline (du traitement des données jusqu’à la prédiction puis sauvegarde du meilleur model prédictif dans la plateforme CLOUD Foundry Airbus)  Développement des Dashboard permettant de monitorer les paramètres de vols (Anomalies, disponibilité des paramètres à utiliser, etc.) Outils/Environnement : PySpark, Hadoop, Plateforme de cloud Airbus (Foundry), Oozie CodeAuthoring (Notebook), Contour (PowerBI), Epoch (propre à Airbus), Sqoop, Auto-Encodeurs, DeepLearning « LSTM »)

Soyez le premier à laisser un avis “Deschanel MBANG”

Your Rating for this listing