Plan du cours

Jour 1 : Fondements et Menaces Principales

Module 1 : Introduction au projet OWASP GenAI Security (1 heure)

Objectifs d'apprentissage :

  • Comprendre l'évolution des défis de sécurité de l'IA par rapport à OWASP Top 10
  • Explorer l'écosystème et les ressources du projet OWASP GenAI Security
  • Identifier les principales différences entre la sécurité des applications traditionnelles et celle de l'IA

Sujets abordés :

  • Aperçu de la mission et de la portée du projet OWASP GenAI Security
  • Introduction à la méthodologie Threat Defense COMPASS
  • Compréhension du paysage de sécurité de l'IA et des exigences réglementaires
  • Surfaces d'attaque de l'IA versus vulnérabilités traditionnelles des applications web

Exercice pratique : Configuration de l'outil OWASP Threat Defense COMPASS et réalisation d'une évaluation initiale des menaces

Module 2 : OWASP Top 10 pour les LLMs - Partie 1 (2,5 heures)

Objectifs d'apprentissage :

  • Maîtriser les cinq premières vulnérabilités LLM critiques
  • Comprendre les vecteurs d'attaque et les techniques d'exploitation
  • Appliquer des stratégies de mitigation pratiques

Sujets abordés :

LLM01 : Injection de prompt

  • Techniques d'injection directe et indirecte de prompts
  • Attaques par instructions cachées et contamination croisée des prompts
  • Exemples pratiques : Jailbreaking de chatbots et contournement des mesures de sécurité
  • Stratégies de défense : Sanitisation des entrées, filtrage des prompts, confidentialité différentielle

LLM02 : Divulgation d'informations sensibles

  • Extraction de données d'entraînement et fuite des prompts système
  • Analyse du comportement du modèle pour l'exposition d'informations sensibles
  • Implications de la vie privée et considérations réglementaires
  • Atténuation : Filtrage des sorties, contrôles d'accès, anonymisation des données

LLM03 : Vulnérabilités de la chaîne d'approvisionnement

  • Dépendances de modèles tiers et sécurité des plugins
  • Données d'entraînement compromises et empoisonnement du modèle
  • Évaluation des risques liés aux fournisseurs pour les composants d'IA
  • Pratiques de déploiement sécurisé et de vérification du modèle

Exercice pratique : Laboratoire pratique démontrant des attaques d'injection de prompts contre des applications LLM vulnérables et mise en œuvre de mesures défensives

Module 3 : OWASP Top 10 pour les LLMs - Partie 2 (2 heures)

Sujets abordés :

LLM04 : Emprisonnement de données et empoisonnement du modèle

  • Techniques de manipulation des données d'entraînement
  • Modification du comportement du modèle par des entrées empoisonnées
  • Attaques de porte dérobée et vérification de l'intégrité des données
  • Prévention : Pipelines de validation des données, suivi de la provenance

LLM05 : Gestion incorrecte des sorties

  • Traitement non sécurisé du contenu généré par les LLM
  • Injection de code via les sorties générées par l'IA
  • Scripting entre sites via les réponses d'IA
  • Cadres de validation et sanitisation des sorties

Exercice pratique : Simulation d'attaques d'empoisonnement de données et mise en œuvre de mécanismes de validation robuste des sorties

Module 4 : Menaces avancées pour les LLM (1,5 heure)

Sujets abordés :

LLM06 : Excessive agence

  • Risques liés aux décisions autonomes et violations de limites
  • Gestion des autorisations et des permissions d'agents
  • Interactions systématiques non prévues et escalade de privilèges
  • Mise en place de garde-fous et contrôles d'encadrement humain

LLM07 : Fuite des prompts système

  • Vulnérabilités d'exposition des instructions systèmes
  • Divulgation de credentials et de logique via les prompts
  • Techniques d'attaque pour extraire les prompts système
  • Sécurisation des instructions systèmes et configuration externe

Exercice pratique : Conception d'architectures d'agents sécurisées avec contrôles d'accès appropriés et surveillance

Jour 2 : Menaces avancées et mise en œuvre

Module 5 : Menaces émergentes de l'IA (2 heures)

Objectifs d'apprentissage :

  • Comprendre les menaces de sécurité de pointe en IA
  • Mettre en œuvre des techniques avancées de détection et de prévention
  • Concevoir des systèmes d'IA résilients face aux attaques sophistiquées

Sujets abordés :

LLM08 : Faiblesses des vecteurs et des embeddings

  • Vulnérabilités du système RAG et sécurité des bases de données vectorielles
  • Empoisonnement des embeddings et attaques de manipulation de similarité
  • Exemples adverses dans la recherche sémantique
  • Sécurisation des magasins vectoriels et mise en œuvre de la détection d'anomalies

LLM09 : Désinformation et fiabilité du modèle

  • Détection et atténuation des hallucinations
  • Amplification du biais et considérations d'équité
  • Mécanismes de vérification des faits et des sources
  • Validation du contenu et intégration de l'encadrement humain

LLM10 : Consommation non limitée

  • Épuisement des ressources et attaques par déni de service
  • Stratégies de limitation du taux et de gestion des ressources
  • Optimisation des coûts et contrôles budgétaires
  • Surveillance des performances et systèmes d'alerte

Exercice pratique : Construction d'un pipeline RAG sécurisé avec protection de la base de données vectorielle et détection d'hallucinations

Module 6 : Sécurité des IA agente (2 heures)

Objectifs d'apprentissage :

  • Comprendre les défis de sécurité uniques des agents IA autonomes
  • Appliquer la taxonomie OWASP Agentic AI à des systèmes réels
  • Mettre en œuvre des contrôles de sécurité pour les environnements multi-agents

Sujets abordés :

  • Introduction aux IA agentes et systèmes autonomes
  • Taxonomie des menaces OWASP Agentic AI : Conception d'agents, mémoire, planification, utilisation d'outils, déploiement
  • Sécurité des systèmes multi-agents et risques de coordination
  • Utilisation abusive d'outils, empoisonnement de la mémoire, détournement d'objectifs
  • Sécurisation des communications et processus de prise de décision des agents

Exercice pratique : Exercice de modélisation des menaces utilisant la taxonomie OWASP Agentic AI sur un système multi-agents de service client

Module 7 : Mise en œuvre de Threat Defense COMPASS (2 heures)

Objectifs d'apprentissage :

  • Maîtriser l'application pratique de Threat Defense COMPASS
  • Intégrer l'évaluation des menaces liées à l'IA dans les programmes de sécurité organisationnels
  • Développer des stratégies globales de gestion des risques d'IA

Sujets abordés :

  • Plongée approfondie dans la méthodologie Threat Defense COMPASS
  • Intégration de la boucle OODA : Observe, Oriente, Décide, Agit
  • Mappage des menaces aux cadres MITRE ATT&CK et ATLAS
  • Construction de tableaux de bord de résilience aux menaces d'IA
  • Intégration avec les outils et processus de sécurité existants

Exercice pratique : Évaluation complète des menaces à l'aide de COMPASS pour un scénario de déploiement de Microsoft Copilot

Module 8 : Mise en œuvre et bonnes pratiques (2,5 heures)

Objectifs d'apprentissage :

  • Concevoir des architectures d'IA sécurisées dès le début
  • Mettre en œuvre la surveillance et la réponse aux incidents pour les systèmes d'IA
  • Créer des cadres de gouvernance pour la sécurité de l'IA

Sujets abordés :

Cycle de développement sécurisé d'IA :

  • Principes de sécurité-by-design pour les applications IA
  • Pratiques de revue de code pour les intégrations LLM
  • Méthodologies de test et de détection des vulnérabilités
  • Sécurisation du déploiement et durcissement en production

Surveillance et détection :

  • Exigences de journalisation et de surveillance spécifiques à l'IA
  • Détection d'anomalies pour les systèmes d'IA
  • Procédures de réponse aux incidents liés à la sécurité de l'IA
  • Techniques de forensic et d'enquête

Gouvernance et conformité :

  • Cadres et politiques de gestion des risques liés à l'IA
  • Considérations de conformité réglementaire (RGPD, Règlement sur l'IA, etc.)
  • Évaluation des risques liés aux tiers pour les fournisseurs d'IA
  • Formation à la sécurité de l'IA pour les équipes de développement IA

Exercice pratique : Conception d'une architecture de sécurité complète pour un chatbot d'entreprise d'IA, y compris la surveillance, la gouvernance et les procédures de réponse aux incidents

Module 9 : Outils et technologies (1 heure)

Objectifs d'apprentissage :

  • Évaluer et mettre en œuvre des outils de sécurité pour l'IA
  • Comprendre le paysage actuel des solutions de sécurité de l'IA
  • Construire des capacités pratiques de détection et de prévention

Sujets abordés :

  • Écosystème des outils de sécurité de l'IA et paysage des fournisseurs
  • Outils open-source de sécurité : Garak, PyRIT, Giskard
  • Solutions commerciales pour la sécurité et la surveillance de l'IA
  • Modèles d'intégration et stratégies de déploiement
  • Critères de sélection des outils et cadres d'évaluation

Exercice pratique : Démonstration pratique des outils de test de sécurité pour l'IA et planification de la mise en œuvre

Module 10 : Tendances futures et conclusion (1 heure)

Objectifs d'apprentissage :

  • Comprendre les menaces émergentes et les défis de sécurité futurs
  • Développer des stratégies d'apprentissage continu et d'amélioration
  • Créer des plans d'action pour les programmes de sécurité de l'IA dans l'organisation

Sujets abordés :

  • Menaces émergentes : Deepfakes, injection de prompts avancée, inversion des modèles
  • Développements futurs du projet OWASP GenAI et feuille de route
  • Construction de communautés de sécurité de l'IA et partage des connaissances
  • Amélioration continue et intégration de l'intelligence des menaces

Exercice de planification d'action : Développer un plan d'action sur 90 jours pour la mise en œuvre des pratiques de sécurité OWASP GenAI dans les organisations des participants

Pré requis

  • Compréhension générale des principes de sécurité des applications web
  • Familiarité de base avec les concepts d'IA/ML
  • Expérience avec des cadres de sécurité ou des méthodologies d'évaluation des risques souhaitée

Public cible

  • Professionnels de la cybersécurité
  • Développeurs d'IA
  • Architectes système
  • Officiers de conformité
  • Praticiens de la sécurité
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires