AHRAS Yanis
À propos du candidat
Data Enginner depuis + de 3 ans, J’ai eu 3 experiences, la première dans le e-commerce( Developpeur Big Data chez Dropix), secteur de banque(Datalake Natixis) et dans l’automobile(DataHub Renault).
Je maitrise plusieurs technologies du Big data, J’ai pu travaillé sur les diffèrentes technos data : Spark, CDP, HDP, KAFKA, ELK, AWS, python, Scala,.. je dispose des compètences confirmé en cloud. je suis certifié professional data enginner en GCP.
Location
Education
le Mastère en Intelligence Artificielle et Big Data forme des experts à même de participer à ces projets d’envergure décisionnels et prédictifs en maîtrisant les différentes technologies et méthodologies. Les données produites par les entreprises et les utilisateurs explosent en volumes et prennent des formes de plus en plus variées qu’entreprises et organisations souhaitent analyser pour des usages très variées : marketing, commerce en ligne, optimisation des ressources logistiques, santé, sécurité publique et cyber défense… Dans des équipes projets pluridisciplinaires, les experts informatiques doivent combiner compétences techniques pour imaginer de nouveaux modèles de stockage et de nouveaux algorithmes de gestion et de traitement, utiliser des algorithmes d'intelligence artificielle (Machine Learning, Deep Learning, …), capacité à anticiper les services et les usages rendus possibles par le Big Data au stockage et à l’exploitation des données personnelles.
Travail & Expérience
- Development of data scrapping algorithms from a list of marketplaces. of marketplaces. - Storage and analysis of data in a database. - Management and security of data flows. - Design and implementation of a delivery management application. - Environment: Unix, APIs, AWS, Python, SQL, GitLab, Scrappy, Docker, Pandas, Keras, OpenCV
- Loading, transformation, enrichment of the data in the datalake. - Implementation of reporting algorithms to gather the necessary data for the regulators, perform checks/corrections and send them to the during a data audit. - Development of several Spark-Scala processing of the datalake projects finance. - Participation in the preparation and implementation of the HDP3 migration with the team's data engineers on all working environments (DEV,QUALIF,PROD) in Agile method. - Monitoring of flows in production. - Environment : Bash, Scala, Spark, Kafka, Hive, Hbase, Solr, Indexima, HDFS, Yarn, Jenkins, XLDeploy, Control-M, Bitbucket, Confluence
- Development of data pipeline from the Datalake (SQL, Python, Dataproc, Airflow) - DevOps and Agile process (Gitlab CI, Jira) - Cleaning and provision of data for several clients - Development of a data lineage for all our data to track their traceability - Development of data catalog application on power apps- Development of data pipeline from the Datalake (SQL, Python, Dataproc, Airflow) - DevOps and Agile process (Gitlab CI, Jira) - Cleaning and provision of data for several clients - Development of a data lineage for all our data to track their traceability - Development of data catalog application on power apps Compétences : dataproc · big query · PySpark · Méthodes agiles · Apache Airflow · cicd · gcs · python