© AFI Expertise inc. |
Ce cours prépare les apprenants à concevoir, implémenter et exploiter des solutions Machine Learning Operations (MLOps) et Generative AI Operations (GenAIOps) sur Azure. Il couvre la création d’une infrastructure IA sécurisée et évolutive, la gestion du cycle de vie complet des modèles Machine Learning traditionnels avec des Azure Machine Learning et le déploiement, l’évaluation, la surveillance et l’optimisation des applications et agents d’IA génératives à l’aide de Microsoft Foundry. Les apprenants bénéficieront d’une connaissance pratique de l’automatisation, de l’intégration continue et de la livraison, de l’infrastructure en tant que code et de l’observabilité à l’aide d’outils tels que GitHub Actions, Azure CLI et Bicep. Le cours met l’accent sur la collaboration avec les équipes de science des données et devOps pour fournir des systèmes IA fiables et prêts à la production alignés sur les meilleures pratiques modernes mlOps et GenAIOps. |
Public concerné | Ce cours est destiné aux scientifiques des données, aux ingénieurs machine learning et aux professionnels DevOps qui souhaitent concevoir et exploiter des solutions IA de niveau production sur Azure. Il convient aux apprenants ayant une expérience dans Python, une compréhension fondamentale des concepts de Machine Learning et une connaissance de base des pratiques DevOps telles que le contrôle de code source, CI/CD et les outils en ligne de commande, qui préparent à implémenter des flux de travail MLOps et GenAIOps à l’aide de services natifs Azure. |
Préalables | - Une expérience pratique en Python
- Une compréhension fondamentale des concepts de machine learning
- Des bases en pratiques DevOps, comme le contrôle de code source, les pipelines CI/CD et l’utilisation d’outils en ligne de commande (CLI).
|
Objectifs | - Concevoir et exécuter des expériences de machine learning avec Azure Machine Learning, y compris AutoML
- Prétraiter les données, configurer la featurisation et évaluer, comparer et suivre des modèles à l’aide de MLflow et du tableau de bord Responsible AI
- Optimiser les modèles par l’ajustement des hyperparamètres et l’utilisation de sweep jobs
- Concevoir, exécuter et automatiser des pipelines ML dans Azure Machine Learning
- Intégrer les pratiques MLOps en automatisant l’entraînement, l’évaluation et le déploiement des modèles avec GitHub Actions
- Déployer des modèles de machine learning dans des environnements contrôlés et reproductibles
- Planifier et mettre en œuvre une approche GenAIOps pour des applications d’IA générative
- Sélectionner et comparer des modèles de langage selon des cas d’usage concrets
- Gérer, versionner et déployer des prompts et agents IA avec Microsoft Foundry et GitHub
- Évaluer, comparer et optimiser des agents d’IA générative à l’aide d’expériences structurées et automatisées
- Mettre en place des évaluations automatisées alignées sur des critères humains
- Surveiller, analyser et améliorer des applications d’IA générative grâce au monitoring et au tracing avancé
- Diagnostiquer et déboguer des workflows complexes d’IA générative à partir des données de traçage
|
Méthode pédagogique | Formation donnée par un formateur certifié Microsoft (MCT) |
Contenu | Expérimenter avec Azure Machine Learning- Prétraiter les données et configurer la featurisation
- Exécuter une expérience de machine learning automatisé (AutoML)
- Évaluer et comparer les modèles
- Configurer MLflow pour le suivi des modèles dans les notebooks
- Entraîner et suivre les modèles dans les notebooks
- Évaluer les modèles avec le tableau de bord Responsible AI
- Exercice – Trouver le meilleur modèle de classification avec Azure Machine Learning
- Évaluation du module
Effectuer l’optimisation des hyperparamètres avec Azure Machine Learning- Définir un espace de recherche
- Configurer une méthode d’échantillonnage
- Configurer l’arrêt anticipé
- Utiliser un sweep job pour l’optimisation des hyperparamètres
- Exercice – Exécuter un sweep job
- Évaluation du module
Exécuter des pipelines dans Azure Machine Learning- Créer des composants
- Créer un pipeline
- Exécuter un travail de pipeline
- Exercice – Exécuter un travail de pipeline
- Évaluation du module
Déclencher des travaux Azure Machine Learning avec GitHub Actions- Comprendre le problème métier
- Explorer l’architecture de la solution
- Utiliser GitHub Actions pour l’entraînement des modèles
- Exercice
- Évaluation du module
Déclencher GitHub Actions avec un développement basé sur les fonctionnalités- Comprendre le problème métier
- Explorer l’architecture de la solution
- Déclencher un workflow
- Exercice
- Évaluation du module
Travailler avec les environnements dans GitHub Actions- Comprendre le problème métier
- Explorer l’architecture de la solution
- Configurer les environnements
- Exercice
- Évaluation du module
Déployer un modèle avec GitHub Actions- Comprendre le problème métier
- Explorer l’architecture de la solution
- Déploiement du modèle
- Exercice
- Évaluation du module
Planifier et préparer une solution GenAIOps- Explorer les cas d’usage de GenAIOps
- Sélectionner le bon modèle d’IA générative
- Comprendre le cycle de développement d’une application basée sur des modèles de langage
- Explorer les outils et frameworks disponibles pour mettre en œuvre GenAIOps
- Exercice – Comparer les modèles de langage à partir du catalogue de modèles
- Évaluation du module
Gérer les prompts pour les agents dans Microsoft Foundry avec GitHub- Appliquer le contrôle de version aux prompts
- Comprendre les agents Microsoft Foundry et le versionnement des prompts
- Organiser les prompts dans des dépôts GitHub
- Développer des workflows sécurisés de déploiement des prompts
- Exercice – Développer des versions de prompts et d’agents
- Vérification des connaissances
Évaluer et optimiser les agents IA à l’aide d’expériences structurées- Concevoir des expériences d’évaluation
- Appliquer des workflows basés sur Git aux expériences d’optimisation
- Appliquer des grilles d’évaluation pour une notation cohérente
- Exercice – Évaluer et comparer des versions d’agents IA
- Vérification des connaissances
Automatiser les évaluations IA avec Microsoft Foundry et GitHub Actions- Comprendre pourquoi les évaluations automatisées sont importantes
- Aligner les évaluateurs sur des critères humains
- Créer des jeux de données d’évaluation
- Implémenter des évaluations par lots avec Python
- Intégrer les évaluations à GitHub Actions
- Exercice – Mettre en place des évaluations automatisées
- Vérification des connaissances
Surveiller votre application d’IA générative- Pourquoi faut-il surveiller ?
- Comprendre les indicateurs clés à surveiller
- Explorer la surveillance avec Azure
- Intégrer la surveillance dans votre application
- Interpréter les résultats de la surveillance
- Exercice – Activer la surveillance pour une application d’IA générative
- Vérification des connaissances
Analyser et déboguer votre application d’IA générative avec le traçage- Pourquoi utiliser le traçage ?
- Identifier ce qu’il faut tracer dans les applications d’IA générative
- Implémenter le traçage dans les applications d’IA générative
- Déboguer des workflows complexes avec des modèles avancés de traçage
- Prendre des décisions éclairées grâce à l’analyse des données de traçage
- Exercice – Activer le traçage pour une application d’IA générative
- Vérification des connaissances
|