Plan du cours
Jour 1 : Fondements et Menaces Principales
Module 1 : Introduction au projet OWASP GenAI Security (1 heure)
Objectifs d'apprentissage :
- Comprendre l'évolution des défis de sécurité de l'IA par rapport à OWASP Top 10
- Explorer l'écosystème et les ressources du projet OWASP GenAI Security
- Identifier les principales différences entre la sécurité des applications traditionnelles et celle de l'IA
Sujets abordés :
- Aperçu de la mission et de la portée du projet OWASP GenAI Security
- Introduction à la méthodologie Threat Defense COMPASS
- Compréhension du paysage de sécurité de l'IA et des exigences réglementaires
- Surfaces d'attaque de l'IA versus vulnérabilités traditionnelles des applications web
Exercice pratique : Configuration de l'outil OWASP Threat Defense COMPASS et réalisation d'une évaluation initiale des menaces
Module 2 : OWASP Top 10 pour les LLMs - Partie 1 (2,5 heures)
Objectifs d'apprentissage :
- Maîtriser les cinq premières vulnérabilités LLM critiques
- Comprendre les vecteurs d'attaque et les techniques d'exploitation
- Appliquer des stratégies de mitigation pratiques
Sujets abordés :
LLM01 : Injection de prompt
- Techniques d'injection directe et indirecte de prompts
- Attaques par instructions cachées et contamination croisée des prompts
- Exemples pratiques : Jailbreaking de chatbots et contournement des mesures de sécurité
- Stratégies de défense : Sanitisation des entrées, filtrage des prompts, confidentialité différentielle
LLM02 : Divulgation d'informations sensibles
- Extraction de données d'entraînement et fuite des prompts système
- Analyse du comportement du modèle pour l'exposition d'informations sensibles
- Implications de la vie privée et considérations réglementaires
- Atténuation : Filtrage des sorties, contrôles d'accès, anonymisation des données
LLM03 : Vulnérabilités de la chaîne d'approvisionnement
- Dépendances de modèles tiers et sécurité des plugins
- Données d'entraînement compromises et empoisonnement du modèle
- Évaluation des risques liés aux fournisseurs pour les composants d'IA
- Pratiques de déploiement sécurisé et de vérification du modèle
Exercice pratique : Laboratoire pratique démontrant des attaques d'injection de prompts contre des applications LLM vulnérables et mise en œuvre de mesures défensives
Module 3 : OWASP Top 10 pour les LLMs - Partie 2 (2 heures)
Sujets abordés :
LLM04 : Emprisonnement de données et empoisonnement du modèle
- Techniques de manipulation des données d'entraînement
- Modification du comportement du modèle par des entrées empoisonnées
- Attaques de porte dérobée et vérification de l'intégrité des données
- Prévention : Pipelines de validation des données, suivi de la provenance
LLM05 : Gestion incorrecte des sorties
- Traitement non sécurisé du contenu généré par les LLM
- Injection de code via les sorties générées par l'IA
- Scripting entre sites via les réponses d'IA
- Cadres de validation et sanitisation des sorties
Exercice pratique : Simulation d'attaques d'empoisonnement de données et mise en œuvre de mécanismes de validation robuste des sorties
Module 4 : Menaces avancées pour les LLM (1,5 heure)
Sujets abordés :
LLM06 : Excessive agence
- Risques liés aux décisions autonomes et violations de limites
- Gestion des autorisations et des permissions d'agents
- Interactions systématiques non prévues et escalade de privilèges
- Mise en place de garde-fous et contrôles d'encadrement humain
LLM07 : Fuite des prompts système
- Vulnérabilités d'exposition des instructions systèmes
- Divulgation de credentials et de logique via les prompts
- Techniques d'attaque pour extraire les prompts système
- Sécurisation des instructions systèmes et configuration externe
Exercice pratique : Conception d'architectures d'agents sécurisées avec contrôles d'accès appropriés et surveillance
Jour 2 : Menaces avancées et mise en œuvre
Module 5 : Menaces émergentes de l'IA (2 heures)
Objectifs d'apprentissage :
- Comprendre les menaces de sécurité de pointe en IA
- Mettre en œuvre des techniques avancées de détection et de prévention
- Concevoir des systèmes d'IA résilients face aux attaques sophistiquées
Sujets abordés :
LLM08 : Faiblesses des vecteurs et des embeddings
- Vulnérabilités du système RAG et sécurité des bases de données vectorielles
- Empoisonnement des embeddings et attaques de manipulation de similarité
- Exemples adverses dans la recherche sémantique
- Sécurisation des magasins vectoriels et mise en œuvre de la détection d'anomalies
LLM09 : Désinformation et fiabilité du modèle
- Détection et atténuation des hallucinations
- Amplification du biais et considérations d'équité
- Mécanismes de vérification des faits et des sources
- Validation du contenu et intégration de l'encadrement humain
LLM10 : Consommation non limitée
- Épuisement des ressources et attaques par déni de service
- Stratégies de limitation du taux et de gestion des ressources
- Optimisation des coûts et contrôles budgétaires
- Surveillance des performances et systèmes d'alerte
Exercice pratique : Construction d'un pipeline RAG sécurisé avec protection de la base de données vectorielle et détection d'hallucinations
Module 6 : Sécurité des IA agente (2 heures)
Objectifs d'apprentissage :
- Comprendre les défis de sécurité uniques des agents IA autonomes
- Appliquer la taxonomie OWASP Agentic AI à des systèmes réels
- Mettre en œuvre des contrôles de sécurité pour les environnements multi-agents
Sujets abordés :
- Introduction aux IA agentes et systèmes autonomes
- Taxonomie des menaces OWASP Agentic AI : Conception d'agents, mémoire, planification, utilisation d'outils, déploiement
- Sécurité des systèmes multi-agents et risques de coordination
- Utilisation abusive d'outils, empoisonnement de la mémoire, détournement d'objectifs
- Sécurisation des communications et processus de prise de décision des agents
Exercice pratique : Exercice de modélisation des menaces utilisant la taxonomie OWASP Agentic AI sur un système multi-agents de service client
Module 7 : Mise en œuvre de Threat Defense COMPASS (2 heures)
Objectifs d'apprentissage :
- Maîtriser l'application pratique de Threat Defense COMPASS
- Intégrer l'évaluation des menaces liées à l'IA dans les programmes de sécurité organisationnels
- Développer des stratégies globales de gestion des risques d'IA
Sujets abordés :
- Plongée approfondie dans la méthodologie Threat Defense COMPASS
- Intégration de la boucle OODA : Observe, Oriente, Décide, Agit
- Mappage des menaces aux cadres MITRE ATT&CK et ATLAS
- Construction de tableaux de bord de résilience aux menaces d'IA
- Intégration avec les outils et processus de sécurité existants
Exercice pratique : Évaluation complète des menaces à l'aide de COMPASS pour un scénario de déploiement de Microsoft Copilot
Module 8 : Mise en œuvre et bonnes pratiques (2,5 heures)
Objectifs d'apprentissage :
- Concevoir des architectures d'IA sécurisées dès le début
- Mettre en œuvre la surveillance et la réponse aux incidents pour les systèmes d'IA
- Créer des cadres de gouvernance pour la sécurité de l'IA
Sujets abordés :
Cycle de développement sécurisé d'IA :
- Principes de sécurité-by-design pour les applications IA
- Pratiques de revue de code pour les intégrations LLM
- Méthodologies de test et de détection des vulnérabilités
- Sécurisation du déploiement et durcissement en production
Surveillance et détection :
- Exigences de journalisation et de surveillance spécifiques à l'IA
- Détection d'anomalies pour les systèmes d'IA
- Procédures de réponse aux incidents liés à la sécurité de l'IA
- Techniques de forensic et d'enquête
Gouvernance et conformité :
- Cadres et politiques de gestion des risques liés à l'IA
- Considérations de conformité réglementaire (RGPD, Règlement sur l'IA, etc.)
- Évaluation des risques liés aux tiers pour les fournisseurs d'IA
- Formation à la sécurité de l'IA pour les équipes de développement IA
Exercice pratique : Conception d'une architecture de sécurité complète pour un chatbot d'entreprise d'IA, y compris la surveillance, la gouvernance et les procédures de réponse aux incidents
Module 9 : Outils et technologies (1 heure)
Objectifs d'apprentissage :
- Évaluer et mettre en œuvre des outils de sécurité pour l'IA
- Comprendre le paysage actuel des solutions de sécurité de l'IA
- Construire des capacités pratiques de détection et de prévention
Sujets abordés :
- Écosystème des outils de sécurité de l'IA et paysage des fournisseurs
- Outils open-source de sécurité : Garak, PyRIT, Giskard
- Solutions commerciales pour la sécurité et la surveillance de l'IA
- Modèles d'intégration et stratégies de déploiement
- Critères de sélection des outils et cadres d'évaluation
Exercice pratique : Démonstration pratique des outils de test de sécurité pour l'IA et planification de la mise en œuvre
Module 10 : Tendances futures et conclusion (1 heure)
Objectifs d'apprentissage :
- Comprendre les menaces émergentes et les défis de sécurité futurs
- Développer des stratégies d'apprentissage continu et d'amélioration
- Créer des plans d'action pour les programmes de sécurité de l'IA dans l'organisation
Sujets abordés :
- Menaces émergentes : Deepfakes, injection de prompts avancée, inversion des modèles
- Développements futurs du projet OWASP GenAI et feuille de route
- Construction de communautés de sécurité de l'IA et partage des connaissances
- Amélioration continue et intégration de l'intelligence des menaces
Exercice de planification d'action : Développer un plan d'action sur 90 jours pour la mise en œuvre des pratiques de sécurité OWASP GenAI dans les organisations des participants
Pré requis
- Compréhension générale des principes de sécurité des applications web
- Familiarité de base avec les concepts d'IA/ML
- Expérience avec des cadres de sécurité ou des méthodologies d'évaluation des risques souhaitée
Public cible
- Professionnels de la cybersécurité
- Développeurs d'IA
- Architectes système
- Officiers de conformité
- Praticiens de la sécurité