À propos du candidat

Après plus de 5 ans d’expériences en tant que data scientist cumulées dans divers secteurs, je suis à la recherche d’un projet cumulant analyse de données de grand volume et machine learning. Le langage de développement dans lequel je suis le plus fluent est Python. J’ai eu l’occasion auparavant de travailler dans des environnements scalables (Spark, Hadoop, Elk, …) ainsi que dans des environnements Cloud ( GCP), et je serai ravi de continuer d’apporter mon expertise dans de tels environnements pour mes missions futures.

Location

Education

I
Ingénieur géléraliste 2017
IMT Atlantique (Parcours Télécom Bretagne)

- Informatique : Génie logiciel – Programmation objet – Bases de données – Langages formels – Systèmes distribués. - Mathématiques appliquées : Processus aléatoires – Traitement du signal – Traitement d’images – Analyses et optimisation. - Spécialisation data science : Machine Learning & Deep Learning – Convolutional neural networks – Scalabilité – Filtres de Kalman

S
Semestre d'échange 2017
Keio University

- Etude de faisabilité technique d’une platforme de micro-transactions en peer-to-peer. - Implémentation d’une solution basée sur le Blockchain puis amélioration des performances avec The Tangle.

Travail & Expérience

S
Senior Data Scientist novembre 21, 2024 - novembre 21, 2024
Wüest Partner

Wüest Partner développe des solutions digitales pour les acteurs de l’immobilier en France et en Europe. Ces solutions aident les professionnels dans le secteur de l’immobilier à maximiser leurs rentabilités. Ceci en leur proposant des estimateurs de prix, des estimateurs de couts de travaux ainsi que des optimisations des émissions de CO2 que ces acteurs cherchent souvent le meilleur moyen pour les minimiser. Mes contributions dans ce poste sont : - Implémentation de scrapers et parsers en Python pour la collecte des données. - Intégration automatique de ces données dans les solutions digitales avec MongoDB. - Planification et management d’une équipe de Data scientists & Data Engineer. - Implémentation d’algorithmes traitant des données géospatiales séparant la France en raster de 25 x 25m. - Prédiction des évaluations de rentabilité immobilière de chaque cellule du raster. - Implémentation de méthodes statistiques se basant sur des fichiers de rasters et des données géospatiales. - Déportation de la solution vers une solution cloud sous GCP.

D
Data Scientist novembre 21, 2024 - novembre 21, 2024
Orange

Les équipes d’Orange France ayant besoin de ressources capacitaires mutualisées (serveurs, stockage, RAM, CPU, VM) passent par l’équipe GRIN de l’entité DIF (Direction des Infrastructures). Dans cette équipe, nous validons les demandes de ressources, gèrons le budget dédié aux datastores et assurons la continuité des différents projets en question. Dans cette perspective, j’interviens en tant que Data Scientist pour aider l’équipe GRIN à assurer ses différentes missions. Entre autres, je contribue pour aider à comprendre le comportement global de chacun des différents projets, alerter l’équipe en cas de rupture capacitaire en vue, implémenter des outils de visualisation qui représentent un miroir de l’état actuel des datacentres. Mes contributions pour cette mission sont : - Implémentation d’algorithmes Python pour faciliter la validation capacitaire. - Génération de tableaux de bord et KPI avec Kibana, Graphana et Bokeh. - Fiabilisation des données Kibana à l’aide de tests adaptés. - Analyses prédictives sur les futurs besoins infra dans un environnement Spark et Hadoop. - Automatisation de processus capacitaires avec Ansible. - Mise à disposition d’outils de visualisation avec Python et Bokeh qui représentent l’état actuel des datacentres. - Mise en place d’un Chatbot développé avec le Framework Rasa.

D
Data scientist novembre 21, 2024 - novembre 21, 2024
Thales

Au sein du site de Thales TRT à Palaiseau, j’ai travaillé en mode agile sur deux projets différents. Dans le premier projet en partenariat avec Thales Alenia Space (TAS), j’ai collaboré avec une équipe d’ingénieur en aérospatiale et leur ai permis de mieux exploiter leurs données de bancs de tests pour composants de satellites. Lors du deuxième projet, j’ai travaillé en collaboration avec DMS Brest. Le but étant de faciliter la tâche de pilotes de contrôles surveillant une zone géographique précise en utilisant un grand volume de données de tweets. Mes contributions pour cette mission sont : - Implémentation en Python de méthodes statistiques - Mise à disposition d’outils de visualisation interactifs pour l’analyse de performances sous forme d’un KPI. (Kibana et Graphana ont servi d’outils de comparaison avec l’interface implémentée). - Mise en place d’un cluster Elasticsearch sur la plateforme locale. - Automatisation de l’intégration de données recueillies sur le cluster. - Text mining sur les données de tweets (Clustering et Classification). - Optimisation et portage à l’échelle du code java existant permettant la fusion d’information.

D
Data Scientist novembre 21, 2024 - novembre 21, 2024
L'Oréal

Dans le cadre des travaux R&D en produits dermatologiques pour le client L’Oréal, j’ai rejoint le laboratoire de Chevilly-Larue en tant que consultant. Pendant cette mission, j’ai travaillé sur un projet portant sur le Deep Learning et le traitement d’images. Il s’agit de la modélisation de la décision humaine par une intelligence artificielle.Le laboratoire auquel j’ai été affilié travaillait sur un modèle intégrant des réseaux de neurones convolutionnels (CNN) pour modéliser ce genre de décision. Mes contributions pour cette mission sont : - Etat de l’art sur la modélisation de la décision humaine. - Reprise et amélioration d’un classificateur en Python et Tensorflow implémentant des méthodes de Deep Learning, particulièrement des Convolutional Neural Networks. - Migration du code écrit sur la plateforme Google Cloud Platform. - Parallélisation du classificateur sur une architecture maître/esclaves. - Contribution à la rédaction de l’article de recherche du client à l’issue des travaux effectués.

D
Data Scientist novembre 21, 2024 - novembre 21, 2024
Technicolor

Au sein du laboratoire Imaging Science Lab (ISL), dans l’équipe travaillant sur la compréhension des contenus multimédias pilotant l’activité Deep Learning. En tant qu’ingénieur data j’avais pour objectif d’améliorer les modèles existants de prédiction de mémorabilité des images. - Etude bibliographique sur les méthodes de prédiction existantes. - Implémentation en Python de modèles prédictifs existants. Ces techniques étaient basées sur KNN, arbres de décision et SVR. - Extraction de features des images avec des Convolutional Neural Networks. - Implémentation d’une technique de classification basée entièrement sur le Deep Learning. - Optimisation des hyper-paramètres du modèle implémenté (Hyperopt). - Prédiction de la mémorabilité pour d’autres datasets de mémorabilité pour la validation du modèle. - Publication d’un article de recherche IEEE: Deep Learning for Predicting Image Memorability.

Soyez le premier à laisser un avis “Hammad SQUALLI-HOUSSAINI”

Your Rating for this listing