Plan du cours

Fondements d'une IA sûre et équitable

  • Concepts clés : sécurité, biais, équité, transparence
  • Aperçu des cadres réglementaires (Règlement sur l'IA de l'UE, RGPD, etc.)

Biais dans les modèles fine-tuned

  • Comment le fine-tuning peut introduire ou amplifier le biais
  • Études de cas et échecs réels
  • Identification du biais dans les datasets et les prédictions du modèle

Techniques pour la mitigation des biais

  • Stratégies au niveau des données (rééquilibrage, augmentation)
  • Stratégies durant l'entraînement (régularisation, débiaisage adversarial)
  • Stratégies post-traitement (filtrage de sortie, calibration)

Sécurité et robustesse des modèles

  • Détection des sorties non sûres ou nocives
  • Gestion des entrées adversariales
  • Test en équipe rouge et tests sous contrainte de modèles fine-tuned

Audit et surveillance des systèmes d'IA

  • Métriques d'évaluation du biais et de l'équité (par exemple, parité démographique)
  • Outils d'explicabilité et cadres de transparence
  • Surveillance continue et pratiques de gouvernance

Kits outils et pratique pratique

  • Utilisation de bibliothèques open source (par exemple, Fairlearn, Transformers, CheckList)
  • Pratique : Détection et mitigation du biais dans un modèle fine-tuned
  • Génération de sorties sûres par le design des prompts et les contraintes

Cas d'utilisation en entreprise et préparation à la conformité

  • Bonnes pratiques pour intégrer la sécurité dans les workflows LLM
  • Documentation et cartes de modèle pour la conformité
  • Préparation aux audits et revues externes

Résumé et étapes suivantes

Pré requis

  • Une compréhension des modèles d'apprentissage automatique et des processus de formation
  • Une expérience dans le réglage fin (fine-tuning) et les LLMs
  • Une familiarité avec Python et les concepts de traitement du langage naturel (NLP)

Public visé

  • Équipes de conformité en IA
  • Ingénieurs ML
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires