Plan du cours
Fondements du déploiement hybride de l'IA
- Comprendre les modèles de déploiement hybride, cloud et edge
- Caractéristiques des charges de travail IA et contraintes d'infrastructure
- Choisir la bonne topologie de déploiement
Conteneurisation des charges de travail IA avec Docker
- Création de conteneurs d'inférence GPU et CPU
- Gestion d'images et de registres sécurisés
- Mise en œuvre d'environnements reproductibles pour l'IA
Déploiement de services IA dans des environnements cloud
- Exécution d'inférences sur AWS, Azure et GCP via Docker
- Provisionnement de ressources de calcul cloud pour le service de modèles
- Sécurisation des points d'accès IA basés sur le cloud
Techniques de déploiement Edge et On-Prem
- Exécution d'IA sur des appareils IoT, des passerelles et des microserveurs
- Environnements de runtime légers pour l'edge
- Gestion de la connectivité intermittente et de la persistance locale
Réseautage hybride et connectivité sécurisée
- Tunneling sécurisé entre l'edge et le cloud
- Certificats, secrets et accès basé sur des jetons
- Optimisation des performances pour une inférence à faible latence
Orchestration de déploiements d'IA distribués
- Utilisation de K3s, K8s ou d'orchestration légère pour des configurations hybrides
- Découverte de services et planification de charges de travail
- Automatisation des stratégies de déploiement multi-emplacements
Surveillance et observabilité à travers les environnements
- Suivi des performances d'inférence à travers les emplacements
- Journalisation centralisée pour les systèmes IA hybrides
- Détection de pannes et récupération automatique
Évolutivité et optimisation des systèmes d'IA hybride
- Évolutivité des clusters edge et des nœuds cloud
- Optimisation de l'utilisation de la bande passante et du caching
- Équilibrage des charges de calcul entre le cloud et l'edge
Résumé et étapes suivantes
Pré requis
- Une compréhension des concepts de conteneurisation
- Une expérience avec les opérations en ligne de commande Linux
- Une familiarité avec les flux de travail de déploiement de modèles IA
Public cible
- Architectes d'infrastructure
- Ingénieurs de fiabilité des sites (SREs)
- Développeurs Edge et IoT
Nos clients témoignent (5)
L'OC est nouveau pour nous et nous avons beaucoup appris, les laboratoires étaient excellents.
sharkey dollie
Formation - OpenShift 4 for Administrators
Traduction automatique
Tres informatif et concis. Pratique pratique.
Gil Matias - FINEOS
Formation - Introduction to Docker
Traduction automatique
Labos et discussions techniques.
Dinesh Panchal - AXA XL
Formation - Advanced Docker
Traduction automatique
Cela a fourni de solides bases pour Docker et Kubernetes.
Stephen Dowdeswell - Global Knowledge Networks UK
Formation - Docker (introducing Kubernetes)
Traduction automatique
J'ai principalement apprécié les connaissances du formateur.
- Inverso Gesellschaft fur innovative Versicherungssoftware mbH
Formation - Docker, Kubernetes and OpenShift for Developers
Traduction automatique