Plan du cours

Aperçu de l'architecture LLM et de sa surface d'attaque

  • Comment les LLM sont construits, déployés et accessibles via des API
  • Composants clés dans les piles d'applications LLM (par exemple, prompts, agents, mémoire, API)
  • Où et comment les problèmes de sécurité se posent dans l'usage réel

Injection de prompt et attaques de jailbreak

  • Qu'est-ce que l'injection de prompt et pourquoi c'est dangereux
  • Scénarios d'injection directe et indirecte de prompts
  • T techniques de jailbreaking pour contourner les filtres de sécurité
  • Stratégies de détection et de mitigation

Fuite de données et risques de confidentialité

  • Exposition accidentelle des données via les réponses
  • Fuites de PII et mauvais usage de la mémoire du modèle
  • Conception de prompts respectueux de la vie privée et génération augmentée par la récupération (RAG)

Filtrage et protection des sorties LLM

  • Utilisation de Guardrails AI pour le filtrage et la validation du contenu
  • Définition de schémas de sortie et contraintes
  • Suivi et journalisation des sorties non sécurisées

Intervention humaine et approches de workflow

  • Où et quand introduire une supervision humaine
  • Files d'approbation, seuils de notation, gestion des retours en arrière
  • Calibration de la confiance et rôle de l'explicabilité

Modes de conception d'applications LLM sécurisées

  • Principe du privilège minimal et sandboxing pour les appels API et agents
  • Limiter le taux, le débit et détecter l'abus
  • Chaining robuste avec LangChain et isolation des prompts

Conformité, journalisation et gouvernance

  • Assurer la traçabilité des sorties LLM
  • Maintenir la traçabilité et le contrôle des prompts/versions
  • S'aligner sur les politiques de sécurité internes et les besoins réglementaires

Résumé et étapes suivantes

Pré requis

  • Une compréhension des grands modèles de langage et des interfaces basées sur les invites
  • Une expérience dans la construction d'applications LLM en utilisant Python
  • Une familiarité avec l'intégration d'API et le déploiement basé sur le cloud

Public cible

  • Développeurs AI
  • Architectes d'applications et de solutions
  • Gestionnaires de produits techniques travaillant avec des outils LLM
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires