cover image
JAKALA

DataOps & DevOps Engineer - Confirmé·e

Hybrid

Caen, France

Full Time

22-09-2025

Share this job:

Skills

Communication Python SQL Data Engineering GitHub GitLab CI/CD DevOps Docker Kubernetes Monitoring Ansible Azure Data Factory Azure DevOps Architecture Data Architecture Azure AWS Marketing GCP Snowflake Data Science Spark Gitlab CI Databricks Kafka Terraform Prometheus Grafana

Job Specifications

JAKALA est une société leader européenne dans les métiers du conseil de la transformation data, IA et stratégies marketing.

Fondée en Italie en 2000 par Matteo de Brabant, JAKALA se positionne dès ses débuts comme pionnière en combinant marketing et technologie pour révolutionner les domaines de l’engagement, de la fidélisation et des incentives collaborateurs.

Aujourd’hui présente dans 20 pays et comptant 3000 collaborateurs, JAKALA a étendu ses activités en France en 2023.

La mission de JAKALA est d’aider ses clients à tirer un avantage concurrentiel mesurable via une exploitation durable des données et des technologies.

Nous concevons et déployons des solutions qui visent à créer une valeur ajoutée tangible, optimiser les investissements marketing et technologiques et améliorer l’expérience client.

JAKALA déploie son offre sur 3 piliers :

Marketing & Data Consulting
Data & AI Tech
E-com & Plateforms

En interne, toutes les initiatives sont valorisées : les idées, les avancées techniques et la montée en compétences, le tout dans une ambiance challengeante et bienveillante.

Opportunités de carrière stimulantes

Rejoindre JAKALA en France, c’est bénéficier du meilleur des deux mondes : l’agilité et l’impact d’une scale-up, tout en s’appuyant sur la solidité d’un leader européen. Vous aurez l’opportunité de travailler sur des projets ambitieux et innovants, aux côtés d’experts reconnus, avec l’appui de partenariats technologiques de premier plan.

Les valeurs qui guident les #Jakalers

Embrace Data – Make it count – Grow Together – Deliver our best – Be Purpose Driven

Nous sommes engagés ! Pour le bien-être de chacun, pour construire des relations durables avec nos écosystèmes, pour enrichir et partager nos expertises.

Engagés dans l’inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptées et accessibles à tous.

Engagés pour le bien-être au travail, nous sommes convaincus que des équipes épanouies, dans un environnement respectueux et équilibré, sont la clé de la réussite.

Tes missions :

Au sein de notre practice Data & AI et en tant que Data Ops Engineer, tu joues un rôle clé dans la fiabilité, l’automatisation et la performance des pipelines de données.

Tu fais le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données.

Tes missions incluent :

Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production)
Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).
Automatisation du déploiement des traitements et des modèles de données (CI/CD).
Monitoring et le support des jobs de production.
Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.).
Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées.
Optimisation des coûts d’infrastructure liés à la donnée.
Documentation des procédures, flux de données et configurations.

Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu’experts.

Ensemble, nous relèverons les plus grands défis de nos clients, anticiperons les tendances futures et créerons des solutions innovantes à l’échelle globale !

Compétences requises :

Techniques :

Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks.
Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l’Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes).
Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…).
Outils d’orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …

Serait un plus :

Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.
Compétences en SQL, Python

Fonctionnelles :

Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance).
Capacité à collaborer avec des profils variés (techniques et non-techniques).

Profil recherché

Fort·e d’une expérience réussie de 5 ans minimum dans un environnement DataOps, DevOps ou Data Engineering.

Idéalement une expérience en cabinet de conseil - sur des projets liés à nos expertises : data & IA use cases, data architecture
Tu as des capacités à travailler de manière autonome et en équipe.
Tu as d’excellentes compétences en communication et en présentation avec la capacité de formaliser et vulgariser ses résultats auprès d’un public non expert.
Tu es une personne enthousiaste, dynamique, curieuse, rigoureuse et sachant faire preuve de force de proposition et de conviction.
Tu es passionné·e par ton métier et tu aimes le partager.
La maîtrise de l’anglais est appréciée.

Nous

About the Company

We are a data, AI, and experiences company that creates meaningful and lasting impact, globally. Working closely with our clients, we design growth trajectories grounded in data and impact-driven insights to ensure we deliver concrete, measurable results. Our profound technological and architectural knowledge further allows us to consistently implement meaningful, integrated, and long-term solutions. Our focus is always to drive meaningful results; that's why we curate and deliver data-inspired activations that create tangib... Know more