Skills
Python
Java
Scala
SQL
NoSQL
Big Data
ETL (Extract, Transform, Load)
Data Engineering
MySQL
MongoDB
Cassandra
PostgreSQL
Architecture
Machine Learning
apache
Azure
AWS
GCP
Talend
Data Science
Hadoop
Spark
Kafka
Job Specifications
Mission principale
Concevoir, développer et maintenir l’infrastructure de données permettant de collecter, traiter et valoriser les données issues des processus industriels, de la supply chain et des systèmes d’information, afin de soutenir la transformation numérique et l’optimisation des performances.
Responsabilités principales :
1. Collecte et intégration des données
Développer des pipelines ETL (Extract, Transform, Load) robustes et automatisés pour intégrer les données provenant de sources variées (CAPEX, ERP, IoT, systèmes de production, etc.).
Assurer la qualité, la traçabilité et la conformité des données, notamment en lien avec le RGPD.
2. Architecture et stockage des données
Concevoir et maintenir des entrepôts de données (Data Warehouse) et des lacs de données (Data Lake) adaptés aux besoins métiers.
Sélectionner et administrer les bases de données (SQL, NoSQL, Hadoop, Spark, etc.) en fonction des cas d’usage.
3. Support aux équipes métiers et data science
Collaborer avec les équipes de data science pour industrialiser les modèles prédictifs et les algorithmes de machine learning.
Mettre à disposition des données fiables et pertinentes pour les analyses métiers (qualité, production, supply chain, R&D, etc.).
4. Veille technologique et amélioration continue
Assurer une veille sur les technologies Big Data, l’intelligence artificielle et les outils d’automatisation.
Proposer des solutions innovantes pour améliorer la performance des systèmes de données.
Profil recherché
Formation
Bac+5 en informatique, data engineering, statistiques ou école d’ingénieur.
Compétences techniques
Maîtrise des langages de programmation : Python, Java, Scala.
Expérience avec les outils ETL : Talend, Apache Nifi, Airflow.
Connaissance des bases de données : PostgreSQL, MySQL, MongoDB, Cassandra.
Compétence en gestion de données volumineuses : Hadoop, Spark, Kafka.
Connaissance d'un environnement cloud : AWS, Azure ou GCP.
Maîtrise de l’anglais technique.
About the Company
WHub is Hong Kong's startup community platform and power connector, passionate about fostering the growth of startups and the entire tech innovation ecosystem. We provide a full service offer centered around three pillars: Showcasing, Connecting and Education. This includes services such as talent recruiting, corporate and startup co-innovation programs and support to governments in building thriving tech innovation ecosystems. Services are not only provided online, but also offline, examples include our Startup Ecosystem wh...
Know more