Plan du cours

Introduction à la Modélisation des Menaces pour l'IA

  • Qu'est-ce qui rend les systèmes d'IA vulnérables?
  • L'espace de cible de l'IA vs les systèmes traditionnels
  • Vecteurs d'attaque clés : données, modèle, sortie et couches d'interface

Attaques Adversaires sur les Modèles d'IA

  • Comprendre les exemples adversaires et les techniques de perturbation
  • Attaques en boîte blanche vs en boîte noire
  • Méthodes FGSM, PGD et DeepFool
  • Visionner et créer des échantillons adverses

Inversion de Modèle et Fuite de Confidentialité

  • Déduire les données d'entraînement à partir de la sortie du modèle
  • Attaques d'inférence de membres
  • Risques de confidentialité dans les modèles de classification et génératifs

Poisoning des Données et Injections de Backdoor

  • Comment les données empoisonnées influencent le comportement du modèle
  • Backdoors basées sur des déclencheurs et attaques de type Trojan
  • Stratégies de détection et de désinfection

Robustesse et Techniques de Défense

  • Entraînement adversarial et augmentation des données
  • Masquage du gradient et prétraitement des entrées
  • Techniques de lissage et de régularisation des modèles

Défenses d'IA Préservant la Confidentialité

  • Introduction à la confidentialité différentielle
  • Injection de bruit et budgets de confidentialité
  • Apprentissage fédéré et agrégation sécurisée

AI Security en Pratique

  • Évaluation et déploiement de modèles conscients des menaces
  • Utilisation de l'ART (Adversarial Robustness Toolbox) dans les situations appliquées
  • Cas d'étude industriels : violations et atténuations en situation réelle

Récapitulation et Étapes Suivantes

Pré requis

  • Une compréhension des workflows de l'apprentissage automatique et de la formation des modèles
  • Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
  • La familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile

Public cible

  • Ingénieurs en apprentissage automatique
  • Analystes en cybersécurité
  • Chercheurs en IA et équipes de validation des modèles
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires