Plan du cours
Introduction à la containerisation accélérée par GPU
- Comprendre l'utilisation du GPU dans les workflows d'apprentissage profond
- Comment Docker supporte les charges de travail basées sur le GPU
- Les principales considérations sur les performances
Installation et configuration du kit de développement NVIDIA Container Toolkit
- Configuration des pilotes et de la compatibilité CUDA
- Validation de l'accès au GPU à l'intérieur des conteneurs
- Configuration de l'environnement d'exécution
Création d'images Docker activées par GPU
- Utilisation d'images de base CUDA
- Empaquetage des frameworks d'IA dans des conteneurs prêts pour le GPU
- Gestion des dépendances pour l'entraînement et l'inférence
Exécution de charges de travail d'IA accélérées par GPU
- Exécution de jobs d'entraînement utilisant des GPUs
- Gestion des charges de travail multi-GPU
- Surveillance de l'utilisation du GPU
Optimisation des performances et allocation des ressources
- Limitation et isolation des ressources GPU
- Optimisation de la mémoire, des tailles de lots et du placement des dispositifs
- Tuning des performances et diagnostics
Inférence containerisée et service de modèles
- Création de conteneurs prêts pour l'inférence
- Service de charges de travail à fort débit sur des GPUs
- Intégration des exécuteurs de modèles et des APIs
Évolutivité des charges de travail GPU avec Docker
- Stratégies pour l'entraînement distribué sur GPU
- Évolutivité des microservices d'inférence
- Coordination de systèmes d'IA multi-conteneurs
Sécurité et fiabilité pour les conteneurs activés par GPU
- Assurer un accès au GPU sécurisé dans des environnements partagés
- Renforcement de l'images des conteneurs
- Gestion des mises à jour, versions et compatibilité
Résumé et étapes suivantes
Pré requis
- Une compréhension des principes de base de l'apprentissage profond
- Une expérience avec Python et les frameworks d'IA courants
- Une familiarité avec les concepts de base de la containerisation
Public cible
- Ingénieurs en apprentissage profond
- Équipes de recherche et développement
- Formateurs de modèles d'IA
Nos clients témoignent (5)
L'OC est nouveau pour nous et nous avons beaucoup appris, les laboratoires étaient excellents.
sharkey dollie
Formation - OpenShift 4 for Administrators
Traduction automatique
Tres informatif et concis. Pratique pratique.
Gil Matias - FINEOS
Formation - Introduction to Docker
Traduction automatique
Labos et discussions techniques.
Dinesh Panchal - AXA XL
Formation - Advanced Docker
Traduction automatique
Cela a fourni de solides bases pour Docker et Kubernetes.
Stephen Dowdeswell - Global Knowledge Networks UK
Formation - Docker (introducing Kubernetes)
Traduction automatique
J'ai principalement apprécié les connaissances du formateur.
- Inverso Gesellschaft fur innovative Versicherungssoftware mbH
Formation - Docker, Kubernetes and OpenShift for Developers
Traduction automatique