Formation Data Engineer & AIOps
En quelques mois, développez des compétences avancées en Data Engineering et AIOps pour gérer, automatiser et optimiser des pipelines de données et d’IA à grande échelle.
BIG data
Cloud
Data Pipelines
mlops / aiops
Streaming
Messaging
"They trust us".
Student satisfaction
Rate of return to employment
Obtaining certifications
Who is it for? this training?
Entrepreneurs & Decision-makers
Apprenez à structurer et industrialiser vos données, mettez en place des architectures modernes (Cloud, Big Data, Streaming) et exploitez l’AIOps pour piloter vos projets digitaux avec plus d’efficacité et de résilience.
Business professionals
Développez des compétences techniques solides en ingestion, transformation et gouvernance de données. Automatisez vos processus, améliorez la qualité de vos insights et soutenez vos équipes avec des infrastructures data robustes.
Retraining & Young Graduates
Démarquez-vous sur le marché avec une expertise rare en Data Engineering et AIOps. Apprenez à construire, déployer et maintenir des pipelines data & IA à grande échelle pour accélérer votre carrière.
Tech professionals
Renforcez vos compétences en architecture data, DevOps et automatisation. Devenez un expert capable d’industrialiser la donnée, de gérer des environnements distribués et de garantir la performance des projets IA grâce à l’AIOps.
100% financed: CPF, France Travail, Région, OPCO, ...





















Training essentials
-
Target audience
-
Prerequisites
-
Admission
-
Certification
-
Session dates
-
Financing solutions
-
Made to measure
-
Duration & Organization

Who is this program for?
Professionnels en reconversion souhaitant passer aux métiers Data Engineer / Cloud Data / MLOps-AIOps,
avec un focus concret sur le déploiement, l’automatisation et la sécurisation de pipelines sur cloud & on-premise.
Salariés en évolution interne ou mobilité (dev, BI/analyst, Ops/QA/sysadmin) voulant monter en puissance sur
le CI/CD, l’Infrastructure as Code, la gouvernance & sécurité et l’observabilité pour accéder à des rôles plus techniques ou stratégiques.
Jeunes diplômés Bac+2/+3 désirant se spécialiser rapidement en cloud data engineering (pipelines ETL/ELT, conteneurs, orchestration, monitoring) et acquérir des compétences directement employables en production.
Créateurs & porteurs de projets souhaitant gagner en autonomie technique pour concevoir, déployer et piloter leur stack data (coûts, performance, conformité) sur AWS/Azure/GCP et environnements internes.
Demandeurs d’emploi visant un repositionnement rapide sur des métiers en tension (Data Engineer, Cloud/Platform Engineer, MLOps), avec portfolio projets et bloc RNCP certifiant à l’appui.

Prerequisites for joining the course
Profils visés : Bac+3 (info/math/ingé) ou 1–3 ans d’expérience dev/data/DevOps/IT.
Bases requises : Python, SQL, Git, Shell/Linux, notions ETL/ELT & formats (CSV/JSON/Parquet).
Atouts (non bloquants) : Cloud (AWS/Azure/GCP), CI/CD & tests, Docker, IaC (Terraform), réseau, cycle de vie ML & observabilité.
Soft skills : rigueur, autonomie, collaboration (PR/code review), sens produit (perf/sécurité/coût).
Matériel & admission : laptop 16 Go (8 Go min) + droits admin & internet ; FR courant + anglais technique ; candidature → auto-test 30 min → entretien (remise à niveau possible).

Admission stages
Step 1: Personalized appointment with an advisor to define your project.
Step 2: Project validation and alignment with your career objectives.
Step 3: Choice of ideal rhythm: intensive, alternating or part-time.
Step 4: Placement test & validation of prerequisites to ensure your success.
Step 5: Validation of financing with the support of our experts.
Step 6: Session planning and official launch of the adventure at DATAROCKSTARS.

Recognized certifications
Ce bootcamp valide le RNCP40875 – BC03 : «Implémenter et automatiser le déploiement des solutions de données sur le cloud et on-premise».
Certificat délivré par l’EFREI Paris, Grande École d’ingénieurs reconnue (niveau 7 – équiv. Master).
Programme opéré en partenariat EFREI x DataRockstars, orienté mise en prod (CI/CD, IaC, MLOps/AIOps).
À l’issue du jury, vous obtenez l’attestation officielle de réussite du BC03, capitalisable pour le titre RNCP 40875.

Dates & registration
We launch new promotions every month.
Contact us for exact dates and a detailed calendar.

Solutions tailored to your profile
We do our utmost to identify the most suitable financing solutions for your business.
your situation.
An advisor will be happy to discuss this with you.

Personalized support
Our training courses are designed to meet your specific needs. Together, we build a course
to meet your educational objectives.
Contact our teams for personalized support.

Complete autonomy
Intensive 3-month bootcamp with access to our teaching resources, learning platform and labs. Designed for candidates wishing to progress in total autonomy, this format requires rigor, motivation and the ability to self-organize.
Intensive 3-month (400h) blended learning bootcamp, delivered in small, homogeneous cohorts. Designed for candidates who are available full-time, it enables rapid retraining and accelerated integration into the job market.
Blended Learning - Part Time
A format designed for working professionals (freelance, permanent or fixed-term contracts), enabling them to enhance their skills without leaving their jobs, thanks to flexible schedules outside office hours. Delivered in small, homogeneous cohorts.
FreeFlow Learning - Part Time
Training that adapts to you, not the other way around! With FreeFlow Learning, you benefit from tailor-made support: a dedicated trainer who adjusts the content, pace and timetable to your needs, so you can make effective progress without constraints.
An advisor will help you choose the most suitable pace and financing.
You'll find detailed pricing further down the page. Make an appointment today and bring your project to life!
Detailed program training
-
Module 1
-
Module 2
-
Module 3
-
Module 4
-
Module 5
-
Module 6
-
Module 7
-
Module 8
-
Module 9
-
Module 10
-
Module 11
Module 1 : Fondamentaux Cloud, Réseau & IAM
IaaS/PaaS/SaaS, régions/zones, VPC/VNet, sous-réseaux, NAT, peering.
Rôles & politiques IAM (moindre privilège).
Choix des services de stockage (objet/bloc/fichier) et patterns Data Lake/Lakehouse.
Pratique / TP : Compte projet, VPC/VNet, IAM, bucket objet, chiffrement KMS.
Livrables : Diagramme d’architecture cible, check-list sécurité d’accès, script IaC minimal.
Objectif : Préparer une landing zone cloud sécurisée pour une plateforme data.
Module 2 : Stockage & Lakehouse
Couches bronze/silver/gold, formats Parquet/Delta/Iceberg, partitioning & Z-Ordering.
Métadonnées & catalogue (Glue/Unity/BigLake).
ACL, gestion des clés, rétention, classes de stockage, pratiques FinOps.
Pratique / TP : Déploiement d’un data lake versionné, conversion Parquet→Delta/Iceberg, catalogage.
Livrables : Politique de sécurité des objets, matrice d’accès par rôle, KPI coût/perf initiaux.
Objectif : Déployer et gouverner un Lakehouse prêt pour l’analytique et le ML.
Module 3 : Pipelines Batch & ELT avec Spark + dbt
Ingestion (batch/CDC), Spark/Databricks pour les gros volumes.
ELT avec dbt (tests, documentation auto, lineage).
Publication vers entrepôts/lakehouse et exposition BI.
Pratique / TP : Pipeline bout-en-bout : ingestion → transformations dbt → dataset analytique.
Livrables : Repo Git jobs, tests dbt, documentation, jeu d’exemples reproductible.
Objectif : Concevoir et industrialiser des pipelines batch fiables et traçables.
Module 4 : Streaming temps réel & systèmes distribués
Kafka/PubSub/Kinesis, schémas Avro/Protobuf, schema registry.
Exactly-once, topics partitionnés, consommateurs stateful, CDC→stream→lakehouse.
Traitements stream (Spark Structured Streaming / notions Flink).
Pratique / TP : Producteur/consommateur, sink vers Delta/Iceberg, rejeu contrôlé.
Livrables : DAG de streaming + playbook d’exploitation (retries, backpressure).
Objectif : Implémenter un pipeline streaming résilient et intégrable au reste de la plateforme.
Module 5 : Conteneurs, Kubernetes & Infrastructure as Code
Docker (images slim, multi-stage, sécurité), Kubernetes (Deployments, StatefulSets, Services, Ingress).
Packaging Helm, secrets, configmaps, volumes.
Terraform pour réseau, stockage, compute, et GitOps (ArgoCD/Flux).
Pratique / TP : Déploiement d’un job Spark, d’un service API et d’un scheduler sur K8s via Helm + Terraform.
Livrables : Manifests K8s, chart Helm, state Terraform, runbook déploiement/rollback.
Objectif : Packager et opérer des composants data sur K8s et déclarer l’infra as code.
Module 6 : Sécurité, Conformité & Data Protection
IAM avancé, chiffrement au repos/en transit, rotation de clés, secrets management.
Journalisation, audits, principes RGPD (minimisation, PIA, DLP).
Segmentation réseau, Zero Trust, durcissement des images.
Pratique / TP : Politique d’accès fine-grained, masquage de colonnes sensibles, alertes d’audit.
Livrables : Politique de sécurité, registre des accès, preuve d’audit, fiche d’impacts privacy.
Objectif : Appliquer une politique de sécurité mesurable et auditable sur la data platform.
Module 7 : CI/CD pour la Data
Git flow, GitHub Actions/GitLab CI/Jenkins, artefacts & versioning.
Tests unitaires/intégration et data quality (Great Expectations, dbt tests).
Stratégies de release, environnements (dev/test/prod), approbations.
Pratique / TP : Pipeline CI/CD qui build/publie images & packages, déploie infra/app, exécute tests data.
Livrables : YAML CI/CD, rapports de tests, badges qualité, changelog versionné.
Objectif : Automatiser le cycle de vie des jobs data & de l’infrastructure, avec qualité embarquée.
Module 8: Orchestration & Automatisation des workflows
Airflow/Prefect/Dagster : DAGs, capteurs, backfills, idempotence, SLA/SLO.
Dépendances, reprise sur incident, notifications.
Design “modulaire” pour la réutilisabilité.
Pratique / TP : DAG de prod end-to-end (batch + stream), calendriers, échecs simulés et stratégies de retry.
Livrables : DAGs versionnés, SLA/SLO définis, journal d’exécution & doc opératoire.
Objectif : Industrialiser et automatiser des workflows data tolérants aux pannes.
Module 9: Observabilité, AIOps & FinOps
Métriques, logs, traces (Prometheus, Grafana, OpenTelemetry).
Tableaux de bord, alerting, runbooks, on-call.
FinOps : tagging, budgets, optimisation coût/perf, rightsizing.
Pratique / TP : Export métriques de pipelines, dashboard SLI/SLO, règles d’alerte et auto-remédiation simple.
Livrables : Tableaux de bord, KPI d’exploitation et de coût, runbooks d’escalade.
Objectif : Piloter la fiabilité et les coûts, et enclencher l’AIOps pour réduire le MTTR.
Module 10: MLOps : du modèle au service
MLflow (tracking, modèles, registry), feature store, packaging (conda/poetry).
Serving (SageMaker/Vertex/KFServing/BentoML), déploiements blue-green/canary.
Monitoring de la dérive (data/model), seuils d’alerte, retrain orchestré.
Pratique / TP : Entraînement traçable, promotion staging→prod, déploiement progressif, détection de drift.
Livrables : Expériences tracées, registre de versions, pipeline CI/CD de modèles + moniteurs.
Objectif : Assurer l’efficacité des processus CI/CD en contexte MLOps : versionner, déployer et superviser des modèles en production.
Module 11: Projet Fil Rouge (MSP) & Soutenance
Plateforme data hybride (on-prem + cloud) : ingestion (CDC + streaming), lakehouse Delta/Iceberg, transformations dbt, exposé BI, déploiement K8s, CI/CD, observabilité/AIOps, mise en prod d’un modèle avec surveillance et retrain.
Pratique / TP : Réalisation du projet intégrateur, démo et soutenance.
Livrables :
Repo Git complet ; dossier d’architecture ; politiques IAM/KMS ; KPI coût/perf/sécurité.
Tableaux de bord (SLI/SLO), alerting, runbooks, rapport FinOps.
Démo & soutenance (30–40 min + Q/R) avec preuves d’audit et plan de rollback.
Objectif : Démontrer de bout en bout l’implémentation et l’automatisation du déploiement d’une solution data sur cloud/on-premise.
Detailed program training
-
Module 1
-
Module 2
-
Module 3
-
Module 4
-
Module 5
-
Module 6
-
Module 7
-
Module 8
-
Module 9
-
Module 10
-
Module 11
Module 1 : Fondamentaux Cloud, Réseau & IAM
IaaS/PaaS/SaaS, régions/zones, VPC/VNet, sous-réseaux, NAT, peering.
Rôles & politiques IAM (moindre privilège).
Choix des services de stockage (objet/bloc/fichier) et patterns Data Lake/Lakehouse.
Pratique / TP : Compte projet, VPC/VNet, IAM, bucket objet, chiffrement KMS.
Livrables : Diagramme d’architecture cible, check-list sécurité d’accès, script IaC minimal.
Objectif : Préparer une landing zone cloud sécurisée pour une plateforme data.
Module 2 : Stockage & Lakehouse
Couches bronze/silver/gold, formats Parquet/Delta/Iceberg, partitioning & Z-Ordering.
Métadonnées & catalogue (Glue/Unity/BigLake).
ACL, gestion des clés, rétention, classes de stockage, pratiques FinOps.
Pratique / TP : Déploiement d’un data lake versionné, conversion Parquet→Delta/Iceberg, catalogage.
Livrables : Politique de sécurité des objets, matrice d’accès par rôle, KPI coût/perf initiaux.
Objectif : Déployer et gouverner un Lakehouse prêt pour l’analytique et le ML.
Module 3 : Pipelines Batch & ELT avec Spark + dbt
Ingestion (batch/CDC), Spark/Databricks pour les gros volumes.
ELT avec dbt (tests, documentation auto, lineage).
Publication vers entrepôts/lakehouse et exposition BI.
Pratique / TP : Pipeline bout-en-bout : ingestion → transformations dbt → dataset analytique.
Livrables : Repo Git jobs, tests dbt, documentation, jeu d’exemples reproductible.
Objectif : Concevoir et industrialiser des pipelines batch fiables et traçables.
Module 4 : Streaming temps réel & systèmes distribués
Kafka/PubSub/Kinesis, schémas Avro/Protobuf, schema registry.
Exactly-once, topics partitionnés, consommateurs stateful, CDC→stream→lakehouse.
Traitements stream (Spark Structured Streaming / notions Flink).
Pratique / TP : Producteur/consommateur, sink vers Delta/Iceberg, rejeu contrôlé.
Livrables : DAG de streaming + playbook d’exploitation (retries, backpressure).
Objectif : Implémenter un pipeline streaming résilient et intégrable au reste de la plateforme.
Module 5 : Conteneurs, Kubernetes & Infrastructure as Code
Docker (images slim, multi-stage, sécurité), Kubernetes (Deployments, StatefulSets, Services, Ingress).
Packaging Helm, secrets, configmaps, volumes.
Terraform pour réseau, stockage, compute, et GitOps (ArgoCD/Flux).
Pratique / TP : Déploiement d’un job Spark, d’un service API et d’un scheduler sur K8s via Helm + Terraform.
Livrables : Manifests K8s, chart Helm, state Terraform, runbook déploiement/rollback.
Objectif : Packager et opérer des composants data sur K8s et déclarer l’infra as code.
Module 6 : Sécurité, Conformité & Data Protection
IAM avancé, chiffrement au repos/en transit, rotation de clés, secrets management.
Journalisation, audits, principes RGPD (minimisation, PIA, DLP).
Segmentation réseau, Zero Trust, durcissement des images.
Pratique / TP : Politique d’accès fine-grained, masquage de colonnes sensibles, alertes d’audit.
Livrables : Politique de sécurité, registre des accès, preuve d’audit, fiche d’impacts privacy.
Objectif : Appliquer une politique de sécurité mesurable et auditable sur la data platform.
Module 7 : CI/CD pour la Data
Git flow, GitHub Actions/GitLab CI/Jenkins, artefacts & versioning.
Tests unitaires/intégration et data quality (Great Expectations, dbt tests).
Stratégies de release, environnements (dev/test/prod), approbations.
Pratique / TP : Pipeline CI/CD qui build/publie images & packages, déploie infra/app, exécute tests data.
Livrables : YAML CI/CD, rapports de tests, badges qualité, changelog versionné.
Objectif : Automatiser le cycle de vie des jobs data & de l’infrastructure, avec qualité embarquée.
Module 8: Orchestration & Automatisation des workflows
Airflow/Prefect/Dagster : DAGs, capteurs, backfills, idempotence, SLA/SLO.
Dépendances, reprise sur incident, notifications.
Design “modulaire” pour la réutilisabilité.
Pratique / TP : DAG de prod end-to-end (batch + stream), calendriers, échecs simulés et stratégies de retry.
Livrables : DAGs versionnés, SLA/SLO définis, journal d’exécution & doc opératoire.
Objectif : Industrialiser et automatiser des workflows data tolérants aux pannes.
Module 9: Observabilité, AIOps & FinOps
Métriques, logs, traces (Prometheus, Grafana, OpenTelemetry).
Tableaux de bord, alerting, runbooks, on-call.
FinOps : tagging, budgets, optimisation coût/perf, rightsizing.
Pratique / TP : Export métriques de pipelines, dashboard SLI/SLO, règles d’alerte et auto-remédiation simple.
Livrables : Tableaux de bord, KPI d’exploitation et de coût, runbooks d’escalade.
Objectif : Piloter la fiabilité et les coûts, et enclencher l’AIOps pour réduire le MTTR.
Module 10: MLOps : du modèle au service
MLflow (tracking, modèles, registry), feature store, packaging (conda/poetry).
Serving (SageMaker/Vertex/KFServing/BentoML), déploiements blue-green/canary.
Monitoring de la dérive (data/model), seuils d’alerte, retrain orchestré.
Pratique / TP : Entraînement traçable, promotion staging→prod, déploiement progressif, détection de drift.
Livrables : Expériences tracées, registre de versions, pipeline CI/CD de modèles + moniteurs.
Objectif : Assurer l’efficacité des processus CI/CD en contexte MLOps : versionner, déployer et superviser des modèles en production.
Module 11: Projet Fil Rouge (MSP) & Soutenance
Plateforme data hybride (on-prem + cloud) : ingestion (CDC + streaming), lakehouse Delta/Iceberg, transformations dbt, exposé BI, déploiement K8s, CI/CD, observabilité/AIOps, mise en prod d’un modèle avec surveillance et retrain.
Pratique / TP : Réalisation du projet intégrateur, démo et soutenance.
Livrables :
Repo Git complet ; dossier d’architecture ; politiques IAM/KMS ; KPI coût/perf/sécurité.
Tableaux de bord (SLI/SLO), alerting, runbooks, rapport FinOps.
Démo & soutenance (30–40 min + Q/R) avec preuves d’audit et plan de rollback.
Objectif : Démontrer de bout en bout l’implémentation et l’automatisation du déploiement d’une solution data sur cloud/on-premise.
Pedagogical innovation for your success
The world is changing fast: your training courses need to adapt to your constraints, your pace and new ways of learning.
With us,pedagogical innovation is at the heart of every course: practical, flexible and personalized to guarantee immediate and lasting skills enhancement.
Learning by Doing
Learners are directly immersed in practical cases and learn by doing. Better memorization and immediate increase in operational skills.
Flipped Classroom
Learners discover the theory on their own (videos, materials, e-learning) and use the training time to practice, ask questions and solve problems.
Problem-Based Learning
Participants learn by solving concrete, complex situations inspired by the field. Develops critical thinking and creativity.
Project-Based Learning
Work on a core project to gradually apply acquired skills. Develops collaborative spirit and autonomy.
Adaptive Learning
Content and exercises that automatically adapt to the learner's level and pace. Tailor-made experience and personalized progression.
Blended Learning
Combining face-to-face, distance learning and e-learning. Maximize flexibility and efficiency.
THE AI integrated into your training programme
Regardless of the training course you choose, we have redesigned our entire pedagogical engineering to incorporate artificial intelligence.
In your red thread projects, modules and coaching sessions, you will learn to use AI to innovate, analyze and automate, while cultivating the right reflexes and ethical thinking.
-
Working with AI in your projects
-
Discover advanced tools for your domain
-
Being ready for the market of the future
-
Boost your skills and become an augmented student
Complete autonomy
100% autonomous training, ideal for self-disciplined, self-motivated and self-organized candidates.
3200 €
- Dedicated platform
- Exercises and Projects
- 200 h of online courses
- Support
Blended Learning
Intensive 3-month bootcamp (400h) in small cohorts, for rapid retraining and accelerated integration into the workforce
5500 €
- Dedicated platform
- Exercises and Projects
- 400 h of online courses
- Real-time chat with our trainers
- Mentoring, Masterclass
- Certification support
- Access to our Recruitment / Jobdating platform
- Career support
Blended Learning
Flexible format for working professionals, with flexible after-hours hours.
6900 €
- Dedicated platform
- Exercises and Projects
- 400 h of courses
- Real-time chat with our trainers
- Mentoring, Masterclass
- Certification support
- Access to our Recruitment / Jobdating platform
- Career support
FreeFlow Learning
7900 €
- Dedicated platform
- Exercises and Projects
- 400 h of courses
- Real-time chat with our trainers
- Mentoring, Masterclass (dedicated - flexible)
- Flexible 3 or 6-month diary
- Adaptive learning
- Certification support
- Additional support hours on request
A development platform all-in-one
Platform for courses, practical work and dedicated projects
Explore our integrated platform of dedicated courses, assignments and projects, designed to guide you step-by-step through your learning process.
Development environments
Discover our innovative development environments, designed to offer you an immersive, hands-on learning experience, enabling you to create, test and hone your skills in real time.
Professors and Expert Mentors
Learn alongside expert teachers and mentors, who will guide you through every step of your learning journey, sharing their in-depth knowledge and experience to help you achieve excellence.
The complete route Datarockstars
Forge your success with data science: immerse yourself in our training program to develop essential and sought-after skills.
This training program leads to a state diploma: RNCP level 6 certification (equivalent to a BAC+3/4 on the job market).
Discovery & Integration
The adventure begins with an immersion in the world of data, AI and cybersecurity. Our learners discover the professions, strengthen their technical foundations and get to grips with the tools they need to succeed.
Training & Projects
The course culminates in a "red thread" project presented to a professional jury. This stage officially validates the skills acquired and crowns the course with a DataRockstars certification recognized on the market.
Certification
At the end of the course, a final project is presented to a jury to validate skills and obtain Datarock Stars certification.
Professional integration
We don't just train you in a profession, we accompany you all the way to employment. Personalized coaching, job dating, access to our network of partner companies: everything is done to speed up your recruitment.
Network & Community
With DataRockstars, training is just the beginning. You become part of an active community of alumni and professionals. Participate in exclusive events, masterclasses, hackathons, afterworks... You're now part of a close-knit family that shares the same values and opens doors throughout your career.
Data & AI professions that await you tomorrow!
A panorama of the most sought-after professions in the Data & AI sector
-
AI Engineer
-
Data Scientist
-
Data Analyst
-
Data Engineer
-
MLOps Engineer
-
Data Architect
-
Data Product Manager
-
Data Steward (Governance)
-
NLP Engineer (LLMs)
-
Computer Vision Engineer
-
Database Administrator (DBA)
-
Chief Data Officer (CDO)
Launch your career and find
a job!
Testimonials from our students
Why choose our training?
At DATAROCKSTARS, the satisfaction of our learners is our greatest success. Thanks to innovative teaching methods, tailor-made support and concrete projects, our students develop solid skills that are directly applicable in the job market.
Make an appointment now!
- Call our experts
Simple, effective and free of charge, if you need to find out if this training is right for you, our experts are here to help.
Guaranteed availability
Our advisors are available to answer all your questions.
Advice and kindness
Caring is one of the values we share at DATAROCKSTARS.
Educational experts
Whether you need financing, guidance or technical assistance, our teams of experts are here to help you find the right training.
Do you have any questions?
Our teaching experts are here to answer your questions, so don't hesitate to apply!