Private Cloud & Big Data – Déployer une infrastructure big data sécurisée en cloud privé
Architecture, virtualisation et traitement des données à grande échelle sur cloud souverain.
Formation créée le 14/02/2022. Dernière mise à jour le 16/11/2025.Version du programme : 2
Type de formation
PrésentielDurée de formation
21 heures (3 jours)Accessibilité
OuiPrivate Cloud & Big Data – Déployer une infrastructure big data sécurisée en cloud privé
Architecture, virtualisation et traitement des données à grande échelle sur cloud souverain.
Apprenez à déployer et administrer une plateforme Big Data sécurisée dans un cloud privé, avec les outils clés de l’ingénierie moderne des données et de la virtualisation.
Objectifs de la formation
- Comprendre les fondements de l’architecture cloud privé et ses cas d’usage big data
- Déployer une plateforme big data (Hadoop, Spark, Kafka) sur un cloud privé virtualisé
- Sécuriser les flux, accès et données dans un environnement souverain
- Superviser les performances et piloter le stockage et le traitement des volumes massifs
Profil des bénéficiaires
Pour qui
- Architectes systèmes, ingénieurs cloud, data engineers
- Responsables IT, administrateurs de clusters big data
- Toute personne impliquée dans des projets data sur infrastructures internes
Prérequis
- Maîtrise des systèmes Linux, réseaux, bases de données et principes de virtualisation.
Contenu de la formation
1. Cloud privé : définition, enjeux et architecture
- Cloud privé vs public vs hybride
- Technologies : OpenStack, Proxmox, VMware vSphere
- Approche “Infrastructure as Code” (Terraform, Ansible)
- Sécurité et conformité RGPD / SecNumCloud
2. Plateformes Big Data dans un cloud privé
- Hadoop : HDFS, YARN, MapReduce
- Spark : architecture, in-memory, DataFrame
- Kafka : ingestion en streaming, résilience
- Hive / Impala : requêtage SQL-like
- Déploiement local ou en conteneurs (Docker + Kubernetes ou Rancher)
3. Cas pratique : déploiement d’un environnement Big Data on-prem
- Création d’un cluster virtualisé sous OpenStack
- Installation de la suite Hadoop/Spark
- Ingestion de données via Kafka (fichiers CSV + API REST)
- Traitement distribué et restitution avec SparkSQL
4. Supervision, sécurisation et monitoring
- Monitoring avec Grafana, Prometheus, ElasticSearch
- Gestion des accès : Kerberos, LDAP, SSO
- Encryption des flux et des données au repos
- Analyse de performances et gestion du stockage (NAS, Ceph)
Équipe pédagogique
Formateurs experts en architecture cloud, ingénierie big data et cybersécurité, avec une expérience en projets souverains (secteur public, finance, santé…).
Suivi de l'exécution et évaluation des résultats
- Études de cas pratiques
- QCM de validation
- Déploiement d’une infrastructure cloud + big data simulée
- Certificat de réalisation
Ressources techniques et pédagogiques
- Support numérique complet (schémas, scripts YAML/Terraform, slides)
- VM ou simulateurs cloud on-prem fournis (OpenStack, Proxmox)
- Mise en situation technique complète
- Accès à des ressources partagées (Git, documentation technique)
Qualité et satisfaction
Merci de consulter notre site internet.
Délai d'accès
2 semaines
Accessibilité
Des aménagements sont prévus pour les personnes en situation de handicap. Contactez notre référent accessibilité pour adapter la formation.