Formation Building Secure and Responsible LLM Applications
LLM application security is the discipline of designing, building, and maintaining safe, trustworthy, and policy-compliant systems using large language models.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Plan du cours
Overview of LLM Architecture and Attack Surface
- How LLMs are built, deployed, and accessed via APIs
- Key components in LLM app stacks (e.g., prompts, agents, memory, APIs)
- Where and how security issues arise in real-world use
Prompt Injection and Jailbreak Attacks
- What is prompt injection and why it’s dangerous
- Direct and indirect prompt injection scenarios
- Jailbreaking techniques to bypass safety filters
- Detection and mitigation strategies
Data Leakage and Privacy Risks
- Accidental data exposure through responses
- PII leaks and model memory misuse
- Designing privacy-conscious prompts and retrieval-augmented generation (RAG)
LLM Output Filtering and Guarding
- Using Guardrails AI for content filtering and validation
- Defining output schemas and constraints
- Monitoring and logging unsafe outputs
Human-in-the-Loop and Workflow Approaches
- Where and when to introduce human oversight
- Approval queues, scoring thresholds, fallback handling
- Trust calibration and role of explainability
Secure LLM App Design Patterns
- Least privilege and sandboxing for API calls and agents
- Rate limiting, throttling, and abuse detection
- Robust chaining with LangChain and prompt isolation
Compliance, Logging, and Governance
- Ensuring auditability of LLM outputs
- Maintaining traceability and prompt/version control
- Aligning with internal security policies and regulatory needs
Summary and Next Steps
Pré requis
- An understanding of large language models and prompt-based interfaces
- Experience building LLM applications using Python
- Familiarity with API integrations and cloud-based deployments
Audience
- AI developers
- Application and solution architects
- Technical product managers working with LLM tools
Les formations ouvertes requièrent plus de 3 participants.
Formation Building Secure and Responsible LLM Applications - Booking
Formation Building Secure and Responsible LLM Applications - Enquiry
Building Secure and Responsible LLM Applications - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
Advanced LangGraph: Optimization, Debugging, and Monitoring Complex Graphs
35 HeuresLangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and control over execution.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI platform engineers, DevOps for AI, and ML architects who wish to optimize, debug, monitor, and operate production-grade LangGraph systems.
By the end of this training, participants will be able to:
- Design and optimize complex LangGraph topologies for speed, cost, and scalability.
- Engineer reliability with retries, timeouts, idempotency, and checkpoint-based recovery.
- Debug and trace graph executions, inspect state, and systematically reproduce production issues.
- Instrument graphs with logs, metrics, and traces, deploy to production, and monitor SLAs and costs.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Construire des flux de travail d'IA privés avec Ollama
14 HeuresCe entraînement en direct (en ligne ou sur place) dispensé par un instructeur à Canada s'adresse aux professionnels de niveau avancé souhaitant mettre en œuvre des flux de travail basés sur l'intelligence artificielle (IA) sécurisés et efficaces en utilisant Ollama.
À la fin de cet entraînement, les participants seront capables de :
- Déployer et configurer Ollama pour le traitement privé de l'IA.
- Intégrer des modèles d'IA dans des flux de travail entreprenariaux sécurisés.
- Optimiser la performance de l'IA tout en maintenant la confidentialité des données.
- Automatiser les processus commerciaux avec des capacités d'IA sur site.
- Garantir la conformité aux politiques de sécurité et de gouvernance entreprenariales.
Claude AI pour Workflow Automation et Productivity
14 HeuresCette formation en direct avec instructeur à Canada (en ligne ou sur site) s'adresse aux professionnels débutants qui souhaitent intégrer Claude AI dans leurs flux de travail quotidiens pour améliorer l'efficacité et l'automatisation.
A l'issue de cette formation, les participants seront en mesure de :
- Utiliser Claude AI pour automatiser les tâches répétitives et rationaliser les flux de travail.
- Améliorer la productivité personnelle et collective grâce à l'automatisation par l'IA.
- Intégrer Claude AI aux outils et plateformes existants.
- Optimiser la prise de décision et la gestion des tâches basées sur l'IA.
Déploiement et optimisation des LLM avec Ollama (en anglais)
14 HeuresCette formation en Canada (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent déployer, optimiser et intégrer des LLM en utilisant Ollama.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place et déployer des LLMs en utilisant Ollama.
- Optimiser les modèles d'IA pour la performance et l'efficacité.
- Tirer parti de l'accélération GPU pour améliorer la vitesse d'inférence.
- Intégrer Ollama dans les flux de travail et les applications.
- Contrôler et maintenir les performances des modèles d'IA au fil du temps.
Fine-Tuning et Personnaliser les modèles d'IA sur Ollama
14 HeuresCe cours en direct avec formateur (en ligne ou sur site) est destiné à des professionnels avancés souhaitant affiner et personnaliser les modèles IA sur Ollama pour une performance accrue et des applications spécifiques au domaine.
À la fin de ce cours, les participants seront en mesure de :
- Configurer un environnement efficace pour l'affinement des modèles IA sur Ollama.
- Préparer des jeux de données pour l'affinement supervisé et l'apprentissage par renforcement.
- Optimiser les modèles IA en termes de performance, d'exactitude et d'efficacité.
- Déployer des modèles personnalisés dans des environnements de production.
- Évaluer les améliorations du modèle et garantir sa robustesse.
Introduction à Google Gemini AI
14 HeuresCette formation en direct avec instructeur en Canada (en ligne ou sur site) est destinée aux développeurs de niveau débutant à intermédiaire qui souhaitent intégrer des fonctionnalités d'IA dans leurs applications à l'aide de Google Gemini AI.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux des grands modèles de langage.
- Configurer et utiliser Google Gemini AI pour diverses tâches d'IA.
- Mettre en œuvre des transformations de texte à texte et d'image à texte.
- Construire des applications de base basées sur l'IA.
- Explorer les fonctionnalités avancées et les options de personnalisation de Google Gemini AI.
Google Gemini AI pour la Création de Contenu
14 HeuresCette formation en direct avec instructeur en Canada (en ligne ou sur site) est destinée aux créateurs de contenu de niveau intermédiaire qui souhaitent utiliser Google Gemini AI pour améliorer la qualité et l'efficacité de leur contenu.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre le rôle de l'IA dans la création de contenu.
- Configurer et utiliser Google Gemini AI pour générer et optimiser le contenu.
- Appliquer des transformations de texte à texte pour produire un contenu créatif et original.
- Mettre en œuvre des stratégies de référencement à l'aide d'informations basées sur l'IA.
- Analyser les performances du contenu et adapter les stratégies à l'aide de Gemini AI.
Google Gemini AI pour une Service Clients Transformateur
14 HeuresCette formation en direct avec instructeur en Canada (en ligne ou sur site) est destinée aux professionnels du service client de niveau intermédiaire qui souhaitent mettre en œuvre Google Gemini AI dans leurs opérations de service client.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre l'impact de l'IA sur le service à la clientèle.
- Configurer Google Gemini AI pour automatiser et personnaliser les interactions avec les clients.
- Utiliser les transformations de texte à texte et d'image à texte pour améliorer l'efficacité du service.
- Développez des stratégies basées sur l'IA pour l'analyse en temps réel des commentaires des clients.
- Explorer les fonctionnalités avancées pour créer une expérience de service client transparente.
Google Gemini AI pour Data Analysis
21 HeuresCette formation en direct avec instructeur en Canada (en ligne ou sur site) est destinée aux analystes de données de niveau débutant à intermédiaire et aux professionnels de l'entreprise qui souhaitent effectuer des tâches d'analyse de données complexes de manière plus intuitive dans divers secteurs en utilisant Google Gemini AI.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre les principes fondamentaux de Google Gemini AI.
- Connecter diverses sources de données à Gemini AI.
- Explorer les données à l'aide de requêtes en langage naturel.
- Analyser les modèles de données et en tirer des enseignements.
- Créer des visualisations de données convaincantes.
- Communiquer efficacement des informations basées sur des données.
Intermediate Gemini AI for Public Sector Professionals
16 HeuresThis instructor-led, live training in Canada (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction à Claude AI : Conversational AI et Business applications
14 HeuresCette formation en direct avec instructeur à Canada (en ligne ou sur site) est destinée aux professionnels débutants, aux équipes d'assistance à la clientèle et aux passionnés de technologie qui souhaitent comprendre les principes fondamentaux de l'IA de Claude et l'exploiter pour des applications commerciales.
A la fin de cette formation, les participants seront capables de :
- Comprendre les capacités et les cas d'utilisation de Claude AI.
- Configurer et interagir avec Claude AI de manière efficace.
- Automatiser les flux de travail de l'entreprise avec l'IA conversationnelle.
- Améliorer l'engagement et le soutien des clients en utilisant des solutions basées sur l'IA.
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 HeuresLangGraph is a framework for building graph-structured LLM applications that support planning, branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at beginner-level developers, prompt engineers, and data practitioners who wish to design and build reliable, multi-step LLM workflows using LangGraph.
By the end of this training, participants will be able to:
- Explain core LangGraph concepts (nodes, edges, state) and when to use them.
- Build prompt chains that branch, call tools, and maintain memory.
- Integrate retrieval and external APIs into graph workflows.
- Test, debug, and evaluate LangGraph apps for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based exercises on design, testing, and evaluation.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Dynamic Workflows with LangGraph and LLM Agents
14 HeuresLangGraph is a framework for composing graph-structured LLM workflows that support branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level engineers and product teams who wish to combine LangGraph’s graph logic with LLM agent loops to build dynamic, context-aware applications such as customer support agents, decision trees, and information retrieval systems.
By the end of this training, participants will be able to:
- Design graph-based workflows that coordinate LLM agents, tools, and memory.
- Implement conditional routing, retries, and fallbacks for robust execution.
- Integrate retrieval, APIs, and structured outputs into agent loops.
- Evaluate, monitor, and harden agent behavior for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based design exercises and peer reviews.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph for Marketing Automation
14 HeuresLangGraph is a graph-based orchestration framework that enables conditional, multi-step LLM and tool workflows, ideal for automating and personalizing content pipelines.
This instructor-led, live training (online or onsite) is aimed at intermediate-level marketers, content strategists, and automation developers who wish to implement dynamic, branching email campaigns and content generation pipelines using LangGraph.
By the end of this training, participants will be able to:
- Design graph-structured content and email workflows with conditional logic.
- Integrate LLMs, APIs, and data sources for automated personalization.
- Manage state, memory, and context across multi-step campaigns.
- Evaluate, monitor, and optimize workflow performance and delivery outcomes.
Format of the Course
- Interactive lectures and group discussions.
- Hands-on labs implementing email workflows and content pipelines.
- Scenario-based exercises on personalization, segmentation, and branching logic.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Démarrer avec Ollama : Exécution de modèles d'IA locaux
7 HeuresCette formation en direct (en ligne ou sur site) et dirigée par un formateur s'adresse aux professionnels débutants qui souhaitent installer, configurer et utiliser Ollama pour exécuter des modèles IA localement.
À la fin de cette formation, les participants seront en mesure de :
- Comprendre les fondamentaux de Ollama et ses capacités.
- Configurer Ollama pour exécuter des modèles IA localement.
- Déployer et interagir avec des LLMs (Large Language Models) à l'aide de Ollama.
- Optimiser les performances et l'utilisation des ressources pour les charges de travail IA.
- Explorer les cas d'usage du déploiement local de l'IA dans divers secteurs.