Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
- Ce qui rend les systèmes IA vulnérables ?
- L'espace d'attaque IA vs. systèmes traditionnels
- Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
- Comprendre les exemples adverses et les techniques de perturbation
- Attaques en boîte blanche vs. en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
- Déduire les données d'entraînement à partir de la sortie du modèle
- Attaques d'inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
- Comment les données empoisonnées influencent le comportement du modèle
- Fenêtres d'activation basées sur les backdoors et attaques Trojans
- Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
- Apprentissage adversaire et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
- Évaluation et déploiement de modèles conscients des menaces
- Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
- Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
- Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
- Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
- Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
- Ingénieurs en apprentissage automatique
- Analystes en cybersécurité
- Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
En savoir plus...