Implémenter une solution d'ingénierie des données avec Azure Databricks (DP-3027) - Formations | Afi U.
afiU logo
Sessions garanties Catalogue complet
Apprentissage et coaching

Cultivez une organisation apprenante et développez les talents.

Expérience client

Optimisez vos processus pour une excellence opérationnelle.

Expérience employé

Engagez, fidélisez et améliorez le bien-être au travail.

Intelligence artificielle

Maîtrisez l’IA et automatisez vos processus.

Leadership

Développez des compétences clés pour inspirer et mobiliser.

Outils numériques

Boostez la collaboration et la productivité de vos équipes.

Stratégie et performance

Alignez vos objectifs pour une croissance durable.

Transformation numérique

Exploitez la technologie pour innover et accélérer votre croissance.

ContactFAQ

Nouveauté

Implémenter une solution d'ingénierie des données avec Azure Databricks (DP-3027)

Maîtrisez Apache Spark sur Azure Databricks pour optimiser vos charges de travail d’ingénierie des données cloud.
Microsoft Partner

Prochaines sessions

Aucune date ne convient?

Notifiez-moi si une session est ajoutée.

  • Durée: 1 jour
  • Prix régulier: 795 $
  • Prix préférentiel: 675 $tip icon

Plan de cours

Durée : 1 jour

© AFI par Edgenda inc.

Mettre en œuvre une solution d’ingénierie des données avec Azure Databricks (DP-3027). Apprenez à exploiter la puissance d’Apache Spark et des clusters performants sur la plateforme Azure Databricks pour exécuter de grandes charges de travail d’ingénierie des données dans le cloud.

Public concerné

Ingénieurs de données, scientifiques des données, développeurs ELT souhaitant apprendre à exploiter la puissance d’Apache Spark et des clusters performants sur la plateforme Azure Databricks pour exécuter de grandes charges de travail d’ingénierie des données dans le cloud.

Préalables

Avant de suivre ce cours, les participants doivent :
  • Être familiers avec les services Azure et le portail Azure
  • Avoir des connaissances de base en concepts d’ingénierie des données
  • Avoir de l’expérience en traitement et transformation de données
  • Comprendre les bases de données et les options de stockage de données
  • Avoir une expérience de base en programmation Python ou Scala
  • Être familiarisé avec les outils Big Data comme Apache Spark (utile mais non requis)

Objectifs

  • Comprendre les fondamentaux de Databricks
  • Ingérer et transformer des données
  • Concevoir et orchestrer des pipelines de données
  • Optimiser la performance du traitement des données
  • Mettre en œuvre la sécurité et la gouvernance des données
  • S’intégrer à l’écosystème Azure

Contenu

Réaliser un traitement incrémentiel avec Spark Structured Streaming

  • Configurer des sources de données en temps réel pour le traitement incrémentiel
  • Optimiser Delta Lake pour le traitement incrémentiel dans Azure Databricks
  • Gérer les données tardives et les événements hors séquence dans le traitement incrémentiel
  • Stratégies de surveillance et d’optimisation des performances pour le traitement incrémentiel dans Azure Databricks
  • Exercice : ingestion et traitement en temps réel avec Delta Live Tables sur Azure Databricks
  • Évaluation du module

Implémenter des architectures de streaming avec Delta Live Tables

  • Architectures pilotées par les événements avec Delta Live Tables
  • Ingérer des données avec le streaming structuré
  • Maintenir la cohérence et la fiabilité des données avec le streaming structuré
  • Mettre à l’échelle les charges de streaming avec Delta Live Tables
  • Exercice : pipeline de streaming de bout en bout avec Delta Live Tables
  • Évaluation du module

Optimiser la performance avec Spark et Delta Live Tables

  • Optimiser la performance avec Spark et Delta Live Tables
  • Réaliser une optimisation basée sur les coûts et l’optimisation des requêtes
  • Utiliser la capture des changements de données (CDC)
  • Utiliser l’autoscaling avancé
  • Mettre en œuvre l’observabilité et les métriques de qualité des données
  • Exercice : optimiser les pipelines de données pour de meilleures performances sur Azure Databricks
  • Évaluation du module

Mettre en œuvre des workflows CI/CD dans Azure Databricks

  • Mettre en œuvre le contrôle de version et l’intégration avec Git
  • Réaliser des tests unitaires et des tests d’intégration
  • Gérer et configurer votre environnement
  • Mettre en œuvre des stratégies de retour arrière et de progression
  • Exercice : mise en œuvre de workflows CI/CD
  • Évaluation du module

Automatiser les charges de travail avec Azure Databricks Jobs

  • Mettre en place la planification et l’automatisation des jobs
  • Optimiser les workflows avec des paramètres
  • Gérer les dépendances
  • Mettre en œuvre la gestion des erreurs et des mécanismes de reprise
  • Explorer les meilleures pratiques et recommandations
  • Exercice : automatiser l’ingestion et le traitement des données
  • Évaluation du module

Gérer la confidentialité et la gouvernance des données avec Azure Databricks

  • Mettre en œuvre des techniques de chiffrement des données dans Azure Databricks
  • Gérer les contrôles d’accès dans Azure Databricks
  • Mettre en place le masquage et l’anonymisation des données dans Azure Databricks
  • Utiliser les cadres de conformité et le partage sécurisé des données dans Azure Databricks
  • Utiliser la traçabilité (data lineage) et la gestion des métadonnées
  • Automatiser la gouvernance dans Azure Databricks
  • Exercice : mise en pratique de l’implémentation de Unity Catalog
  • Évaluation du module

Utiliser les SQL Warehouses dans Azure Databricks

  • Prise en main des SQL Warehouses
  • Créer des bases de données et des tables
  • Créer des requêtes et des tableaux de bord
  • Exercice : utiliser un SQL Warehouse dans Azure Databricks
  • Évaluation du module

Exécuter des notebooks Azure Databricks avec Azure Data Factory

  • Comprendre les notebooks Azure Databricks et les pipelines
  • Créer un service lié pour Azure Databricks
  • Utiliser une activité Notebook dans un pipeline
  • Utiliser des paramètres dans un notebook
  • Exercice : exécuter un notebook Azure Databricks avec Azure Data Factory
  • Évaluation du module

Soyez au fait des tendances, innovations, bonnes pratiques et exclusivités

Restez en contact

Compétences clés

Priorités organisationnelles

Formations certifiantes

Pour les organisations

Programmes

À propos

Ressources


La Famille Edgenda

Edgenda

AFI par Edgenda

Apprentx par Edgenda

Afi U.


EN

Besoin d’aide ? Parlez à un conseiller ou appelez au 1 877 624.2344

LinkedIn

Confidentialité | Centre de formation autorisé Emploi-Québec, Agrément : 0051460 | TPS : 141 582 528 - TVQ : 1019557738

Copyright © 2025 Edgenda conseil inc.

Personnaliser les témoins