R&D Data Scientist M/F
Verkor
Data Science
Grenoble, France
En tant que tel.le, vous avez pour mission de transformer les données en informations exploitables, en prévisions et en modèles d'aide à la décision qui aident l'entreprise à réduire les incertitudes, à améliorer ses performances et à optimiser la prise de décision. Votre rôle consiste principalement à cerner les enjeux métier, à les traduire en questions analytiques et à élaborer des solutions fondées sur les données.
Missions principales :
Collaborer avec les opérateurs et les techniciens de production/qualité pour cerner les objectifs, les contraintes et les besoins décisionnels
Transformer les questions métier en problèmes analytiques et de data science
Définir des indicateurs de performance et des critères d'évaluation alignés sur les résultats opérationnels
Analyser et explorer les données structurées et non structurées afin d'identifier des modèles, des tendances et des anomalies
Mettre en place des workflows d'automatisation prêts pour la production
Évaluer la qualité, l'exhaustivité, les biais et les limites des données
Identifier les sources de données supplémentaires nécessaires pour améliorer les analyses ou les modèles
Effectuer la transformation des données à des fins de modélisation
Collaborer avec les ingénieurs data pour opérationnaliser la préparation des données lorsque cela est nécessaire.
Développement et validation de modèles
Interpréter les résultats des modèles et les conclusions analytiques en termes métier
Communiquer clairement les conclusions aux parties prenantes non techniques
Documenter les hypothèses, les limites et les risques du modèle
Requirements :
-
Master ou doctorat en science des données, mathématiques appliquées ou statistiques
-
Minimum de 5 ans d'expérience sur un métier similaire
-
La maîtrise de l'anglais et du français est obligatoire
-
Expérience dans le traitement d'ensembles de données à grande échelle en milieu industriel
-
Solides bases en algèbre linéaire, calcul différentiel et intégral, probabilités et statistiques
-
Bonne compréhension des concepts liés aux systèmes distribués, au partitionnement des données et au traitement parallèle
-
Expérience pratique de l'utilisation de Databricks pour l'exploration des données, l'analyse, l'ingénierie des caractéristiques et l'entraînement de modèles
-
Maîtrise approfondie d'Apache Spark (DataFrames, SQL, concepts MLlib) pour le traitement de données à grande échelle, avec une expérience pratique de l'entraînement de modèles distribués à l'aide de PyTorch ou TensorFlow.
-
Notebooks Databricks (Python/SQL) · Maîtrise approfondie de Pandas et Numpy pour l'exploration, l'ingénierie des caractéristiques et les workflows analytiques
-
Compréhension des besoins des utilisateurs, des facteurs de valeur et des résultats commerciaux
-
Capacité à traduire des problèmes vagues en questions analytiques structurées.
Expérience de travail dans des environnements axés sur les produits