Ismail Moussaoui
À propos du candidat
Je suis un Data Engineer spécialisé dans les technologies AWS, avec une expertise en data mesh, la création de pipelines ETL et automatisation du Data Quality. J’aide les entreprises à améliorer la fiabilité de leurs données grâce à des architectures performantes, notamment avec des outils comme Spark, AWS Glue, et Redshift.
Location
Education
Ingénieur en informatique spécialisé en systèmes d'information, Big Data et développement logiciel, avec expertise en gestion de projets complexes et optimisation des systèmes. Maîtrise des langages de programmation, algorithmes, et architectures logicielles.
Formation intensive en mathématiques, physique et sciences de l'ingénieur, préparant aux concours d'entrée des grandes écoles d'ingénieurs. Acquisition de solides compétences en résolution de problèmes, analyse mathématique, modélisation, et raisonnement scientifique.
Travail & Expérience
Engagé dans la transformation de l'architecture de données vers un modèle Data Mesh, j'ai participé à la conception et à l'optimisation des pipelines ETL pour l'intégration et l'harmonisation des données provenant de sources multiples, alimentant ainsi un Data Warehouse pour améliorer la prise de décision. J'ai également développé des jobs de monitoring pour assurer la qualité des données analytiques. De plus, j'ai créé des bibliothèques AWS CDK pour faciliter l'alimentation des données vers le datalake, soutenant l'évolution vers le modèle Data Mesh. J'ai mis en œuvre des pipelines CI/CD pour automatiser les tests et les déploiements, et intégré des données en temps réel dans le CRM pour renforcer l'engagement client. Enfin, j'ai préparé des données pour entraîner des modèles de Machine Learning dédiés à la cotation des véhicules. Langages et outils : Scala, Python, TypeScript, Spark, Flink, AWS Glue, S3, Step Functions, Redshift, Kinesis, SQS, QuickSight, CDK, Serverless Framework, DynamoDB, Lambda, CodePipeline, CodeBuild.
Participation à la standardisation des formats de données issues de divers calculateurs de risques de la Société Générale pour leur intégration dans le datalake, facilitant ainsi leur utilisation par différentes équipes et applications. Développement d'une API capable d'extraire et de transformer ces données depuis le datalake via Spark, permettant de spécifier le format et les filtres nécessaires. Contribué à la création d'une librairie Spark harmonisant les formats de données, et mis en place un système de notifications via Kafka pour informer les clients de l'intégration de nouvelles données. Implémentation de services de monitoring afin de superviser l'intégration des données et garantir leur bon déroulement. Langages et outils : Java, Spark, Kafka, Hadoop, Oozie, PostgreSQL, Springboot, Protobuf, Jenkins.