Amine Boumazzough
À propos du candidat
Location
Education
Travail & Expérience
PROJETS (Chef de projets BI chez DIAGNOSTICA STAGO) : Projet de reprise de données CRM de MS Dynamics 2011 vers MS Dynamics 365, Projet d’intégration de données de l’ERP M3 dans un logiciel de recouvrement Eloficash, Projet de mise en conformité des univers et rapports SAP BO, Administration Power BI Equipe : 6 personnes (1 responsable de domaine, 1 responsable de projets, 2 Data Engineers, 2 Data Analysts) Méthodologie : Agile Scrum Domaine d’intervention : Projet de reprise de données CRM de MS Dynamics 2011 vers MS Dynamics 365 Étude des données à reprendre (Instruments, Opportunités, Comptes, Clients, ...) Conformité au protection de données RGPD, US, Chine, ... Étude des spécifications techniques et fonctionnelle pour la reprise des données Chiffrage et assignation des tâches de développement Suivi des développements des packages SSIS Recette des développements et correctifs Mise en production de la reprise dans la nouvelle base de données en batchs Tests interface et démos Projet d’intégration de données d’un ERP M3 dans un logiciel de recouvrement Eloficash Étude des données à alimenter dans la base de donnée Eloficash (Contrats, Annuaires, Contacts, ...) Étude des spécifications techniques et fonctionnelle pour l’alimentation des données Chiffrage et assignation des tâches de développement Suivi des développements des packages SSIS Recette des développements et correctifs Mise en production de l’alimentation dans la nouvelle base de données et automatisation Tests interface et démos Projet de mise en conformité des univers et rapports BO Recueil des besoins de mise en conformité des rapports BO Étude des spécifications techniques et fonctionnelle pour mettre à jour/ création d’univers et rapports Modélisation de données (univers, couche sémantique, couche de présentation) Chiffrage et assignation des tâches de développement Suivi des développements Recette des développements et correctifs Mise en production et suivi des retours d’utilisateurs Administrateur Power BI Etudes des plans Power BI pour determiner les licenses adéquates Introduire l’outil dans les différents services pour à terme remplacer SAP BO Assistance technique des developpeurs Power BI Création des workspaces, asignation à la Capacity, gestion des utilisateurs, licenses et supervision Aiguillage des tickets d’utilisateurs Front Office et BI Méthodologie SCRUM : Animation des daily meeting avec l’équipe de developpement. PROJET (Consultant décisionnel chez Axa Banque): Audit de qualité et de performances ETL Talend Equipe : 9 personnes (1 responsable de domaine, 1 responsable de projet, 2 Product Owner, 2 Analyste de données, 3 Ingénieurs de données) Echanges et identification des sources de données, les transformations appliquées et les destinations finales Examen de l’infrastructure Talend, les serveurs, les connexions, les environnements de developpements, les conceptions des jobs ETL pour déterminer la complexité et l'efficacité des flux de données Examen de la qualité des données extraites des sources et les transformations appliquées et identification des erreurs fréquentes et des lacunes dans la qualité des données. Evaluation des performances des jobs ETL en termes de temps d'exécution, de charge système et de débit et identification des goulets d'étranglement et les opportunités d'optimisation des performances. Simulation des pannes système et evaluation de la capacité de récupération des jobs ETL et vérification des mécanismes de journalisation et de reprise après incident. Documentation de toutes les constatations, y compris les recommandations pour l'amélioration Environnement technique : Talend, SSIS, Power BI, SAP BO, ERP M3, CRM Dynamics, Powershell, SQL, Python, MS Vision EasyVista, MS Teams
PROJET : Mise en Place d'une Supervision des Logs d’applications et des métriques serveurs avec Datadog pour SNCF, Le projet vise à mettre en place une solution de supervision robuste et complète des logs et des métriques serveurs en utilisant la plateforme Datadog. Cette solution permettra de collecter, d'analyser et de visualiser les logs et les métriques générés par les serveurs afin d'assurer une surveillance proactive de l'infrastructure informatique. Equipe : 8 personnes (1 responsable de domaine, 1 responsable de projet, 1 Data analyst, 5 Développeurs Python et Powershell) Méthodologie : Agile Scrum Domaine d’intervention : Collecte des Logs et des Métriques : Configurer l'agent Datadog sur chaque serveur pour collecter les logs et les métriques système, ainsi que les métriques applicatives pertinentes. Centralisation et Stockage : Envoyer les logs collectés vers Datadog pour les centraliser dans un emplacement unique et sécurisé, facilitant ainsi leur gestion et leur analyse ultérieure. Analyse en Temps Réel : Mettre en place des tableaux de bord personnalisés dans Datadog pour visualiser en temps réel les métriques clés et les tendances des logs, permettant une surveillance proactive de l'état du système. Alertes et Notification : Configurer des alertes personnalisées dans Datadog pour détecter les anomalies, les erreurs critiques ou les dépassements de seuils, et notifier les équipes opérationnelles en temps réel. Analyse et Corrélation : Utiliser les fonctionnalités avancées d'analyse de logs de Datadog pour identifier les tendances, les modèles et les corrélations entre les différents événements, facilitant le diagnostic des problèmes et la résolution rapide des incidents. Optimisation des Performances : Utiliser les insights fournis par Datadog pour optimiser les performances des serveurs, identifier les goulots d'étranglement et planifier les mises à niveau ou les ajustements d'infrastructure nécessaires. Migration de scripts Powershell d’IAM depuis des environnements Windows 2008 vers des environnement Windows 2019 avec de nouvelles exigences de sécurité. Architecture et déploiement d’un NAS pour gestion de flux, de centralisation d’archives et de logs. Environnement technique : Datadog, PowerShell, Python, Syslog, SQL, MySQL, SMTP, PagerDuty, Kubernetes
PROJET : Analyse des Environnements Favorisant la Croissance Musculaire et la Reproduction Animale. Le projet vise à identifier et à analyser les environnements qui favorisent la croissance musculaire et la reproduction des animaux, en utilisant des données provenant de différentes sources et en mettant en place un environnement Azure pour l'intégration, l'analyse et la visualisation de ces données. Equipe : 11 personnes (1 responsable de domaine, 1 responsable de projet, 2 Product Owner, 3 Data Engineers, 4 Data Analysts, 2 Développeurs Python, 2 testeurs) Méthodologie : Agile Scrum Domaine d’intervention : Mise en Place de l'Environnement Azure : Installation et configuration des différents services Azure nécessaires pour le projet, tels que Azure Blob Storage pour le stockage des données, Azure Data Factory pour l'intégration des données, et Power BI pour la visualisation et l'analyse des données. Supervision de la Consommation des Flux Azure : Surveillance continue de la consommation des ressources Azure pour optimiser les coûts et assurer une utilisation efficace des services cloud. Collecte des Données : Collecter les données à partir de diverses sources, notamment des ordonnanceurs Kafka et des fichiers déposés dans un Azure Blob Storage en créant les connexions adaptées. Création des Flux de Données : Création des pipelines qui définissent le déplacement et la transformation des données à travers les différentes étapes (Tris, Filtres, aggregations, fonctions python, ...) Chargement des données: Chargement des données dans les destinations prévus dans le DataWarehouse, afin qu’elles soient exploitées par les data analysts avec Power BI Planification: Définition de declencheurs pour l’execution des pipelines par evenements externes ou manuellement en fonction du besoin Monitoring et gestion des erreurs: Utilisation des Tableaux de bord de surveillance et les alertes et notifications pour surveiller l’état et les performances des pipelines et des activités, et configurer des alertes en cas de goulets d'étranglement ou d’echec des pipelines ou d’activités. Optimisation des Performances : Garantir des performances optimales avec le partitionnement des données, l'utilisation de clusters de calcul distribués, et l'optimisation des requêtes de transformation. Environnement technique : Azure Cloud Platform, Azure Blob Storage, Azure Data Factory, Apache Kafka, Power BI, Azure SQL Database / Azure Synapse Analytics, Azure Monitor, SQL, Python
PROJET (Data Engineer chez le conseil départemental d’Ille-et-Vilaine) : Le projet consiste à la conception et création d’un data warehouse (RH, véhicules, outillages), pour des besoins d’insights sur toutes les ressources du département à travers les différentes communes. Equipe : 1 personne (Concepteur et Developpeur ETL Talend) Domaine d’intervention : Etudier les spécifications initiales pour comprendre les besoins et les objectifs du projet, Identifier les lacunes et les possibilités d'amélioration dans le système existant et effectuer des entretiens avec les utilisateurs finaux pour recueillir leurs exigences. Concevoir une structure de données multidimensionnelle adaptée aux besoins exprimés, en tenant compte des différentes dimensions et des mesures pertinentes pour l'analyse RH, schémas en étoile ou en flocon pour représenter les relations entre les différentes entités de données. Developpement des jobs ETL avec l’outil Talend, en extrayant les données brutes à partir de sources diverses telles que des bases de données opérationnelles, des fichiers plats, API ... Transformation des données extraites en conformité avec le modèle de données du data warehouse, nettoyage, filtres, validation, enrichissement des données et chargement dans la cible. Tests unitaires pour vérifier le bon fonctionnement de chaque composant du système, les processus ETL, les modèles de données et les flux de travail. Démonstrations pour les utilisateurs finaux avec des rapports et tableaux de bords SAP BO pour recetter les résultats et valider des développements. PROJET (Data analyst chez le Crédit Mutuel Arkéa) : Le projet consiste à mettre à jour les rapports OBIEE pour la gestion de liquidité à transmettre à la Banque Centrale Européene. Les rapports existants sont réalisés annuellement, et le nouveau besoin est de changer la fréquence pour quelle devient mensuelle avec des nouveaux composants et des nouveaux rapports en mettant à jour la version OBIEE de la version 11g à la version 12c Equipe : 15 personne (1 responsable de domaine, 1 responsable de projet, 3 Product Owner, 3 Data Engineers, 2 Data Analysts, 2 Développeurs ODI, 3 developpeurs Apache PIG) Etude avec les responsables de gestion de liquidité des nouvelles exigences et mises à jour en terme de reporting, identification des indicateurs des à surveiller et des types de rapports nécessaires pour les présenter de manière efficace Concevoir des modèles de rapports respectant les maquettes de rapports et tableaux de bord existants, définir les dimensions, les mesures et les filtres nécessaires. Mise à jour des sources de données (couche physique) pour avoir accès aux nouvelles sources de données et mettre à jour les existantes, mettre à jour le modèle logique (la couche sémantique) et l’organisation et la hierarchisation de la couche de présentation où se trouves les champs à utiliser dans les rapports. Configuration des plannings de rafraîchissement mensuel des données pour garantir que les rapports soient mis à jour mensuellement Developpement des interfaces ETL sur ODI pour l’alimentation du data warehouse de liquidité Developpement des scripts PIG et requetes Hive pour extraire les données bruts clients, investissements, epargnes, ... Environnement technique : Oracle, OBIEE, ODI, Apache PIG, Apache Hive, Python, SQL, Jira