Plan du cours

Fondations : Modèles de Menaces pour l'IA Agente

  • Types de menaces agente : mauvais usages, escalade, fuite de données et risques de chaîne d'approvisionnement
  • Profils d'adversaires et capacités spécifiques aux agents autonomes
  • Cartographie des actifs, limites de confiance et points de contrôle critiques pour les agents

Gouvernance, Politique et Gestion des Risques

  • Cadres de gouvernance pour les systèmes agente (rôles, responsabilités, portes d'approbation)
  • Conception des politiques : utilisation acceptable, règles d'escalade, gestion des données et auditabilité
  • Considérations de conformité et collecte de preuves pour les audits

Identité Non Humaine & Authentication pour les Agents

  • Conception d'identités pour les agents : comptes de service, JWTs et credentials à durée limitée
  • Modèles d'accès à privilèges minimums et credentialing juste-à-temps
  • Stratégies de cycle de vie des identités, rotation, délégation et révocation

Contrôles d'Accès, Secrets et Protection des Données

  • Modèles de contrôle d'accès fine-grained et patterns basés sur les capacités pour les agents
  • Gestion des secrets, chiffrement en transit et au repos, et minimisation des données
  • Protection des sources de connaissances sensibles et des PII contre l'accès non autorisé par les agents

Observabilité, Audit et Réponse aux Incidents

  • Conception de la télémétrie pour le comportement des agents : traçage d'intention, journaux de commandes et provenance
  • Intégration SIEM, seuils d'alerte et préparation aux examens forensiques
  • Runbooks et playbooks pour les incidents liés aux agents et leur confinement

Red-Teaming des Systèmes Agente

  • Planification d'exercices de red-teaming : périmètre, règles d'engagement et failover sécurisé
  • Techniques adverses : injection de prompts, mauvais usage d'outils, manipulation en chaîne de pensée et abuse d'API
  • Exécution d'attaques contrôlées et mesure de l'exposition et de l'impact

Durcissement et Atténuation des Risques

  • Contrôles d'ingénierie : modération des réponses, limitation des capacités et sandboxing
  • Contrôles de politique et d'orchestration : flux d'approbation, intervention humaine et hooks de gouvernance
  • Défenses au niveau des modèles et des prompts : validation des entrées, canonicalisation et filtres de sortie

Mise en Production Sécurisée des Agents

  • Modèles de déploiement : staging, canary et déploiement progressif pour les agents
  • Contrôle des changements, pipelines de tests et vérifications de sécurité pré-déploiement
  • Gouvernance inter-fonctionnelle : playbooks de sécurité, légal, produit et opérations

Projet Final : Exercice Red-Team / Blue-Team

  • Exécuter une attaque simulée de red-team contre un environnement d'agents sandboxés
  • Défendre, détecter et remédier en tant qu'équipe blue team à l'aide des contrôles et de la télémétrie
  • Présenter les résultats, le plan de remédiation et les mises à jour de politique

Résumé et Étapes Suivantes

Pré requis

  • Solide expérience en ingénierie de sécurité, administration systèmes ou opérations cloud
  • Connaissance des concepts d'IA/ML et du comportement des grands modèles linguistiques (LLM)
  • Expérience en gestion des identités et accès (IAM) et conception de systèmes sécurisés

Public Cible

  • Ingénieurs en sécurité et red-teamers
  • Ingénieurs d'opérations et de plateforme IA
  • Officiers de conformité et gestionnaires de risques
  • Chefs d'équipe responsables des déploiements d'agents
 21 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires