Protégez les systèmes d'intelligence artificielle des menaces évoluantes grâce à une formation pratique et encadrée par un instructeur dans AI Security.
Ces cours en direct enseignent comment défendre les modèles d'apprentissage automatique, contrer les attaques adversaires et construire des systèmes d'IA fiables et résilients.
La formation est disponible en ligne via un bureau à distance ou sur place en formation en direct dans Québec, avec des exercices interactifs et des cas d'utilisation réels.
La formation sur place peut être dispensée chez vous dans Québec ou dans un centre de formation corporatif NobleProg dans Québec.
Aussi connue sous le nom de Secure AI, Sécurité ML ou Adversarial Machine Learning.
NobleProg – Votre Fournisseur Local de Formation
Montreal - René Lévesque
1250 Boulevard René Lévesque Ouest, Montréal, Canada, H3B 4W8
Situé au centre-ville de Montréal, l'immeuble possède des stations de métro et des autoroutes à proximité, vous offrant un transport rapide et facile à travers la ville et au-delà.
Saint - Laurent- Dr Frederik-Philips
1111, Boulevard Dr Frederik-Philips, Saint - Laurent, Canada, H4M 2X6
Idéalement situé à proximité de l'autoroute 40 et du métro Côte-Vertu avec de nombreux restaurants à proximité.
Situé dans le quartier central des affaires de Laval, notre espace de travail du 2572 boulevard Daniel Johnson est au cœur d'un quartier high-tech, à proximité de Biotech City et facilement accessible depuis le centre-ville de Montréal ou via les autoroutes A-15 et A-460.
Conçu par un architecte de premier plan et équipé des dernières technologies économes en énergie. Accueillez des clients étrangers et voyagez facilement pour affaires à partir de cet endroit recherché, avec l'aéroport Montréal-Trudeau à 10 minutes en voiture.
Brossard - Complexe Dix 30
1040 rue du Lux # 410, Brossard, Canada, J4Y 0E3
Centre de style de vie commercial Quartier DIX30. Bien situé à côté de l'autoroute des Cantons-de-l'Est, le centre-ville de Montréal en moins de 20 minutes.
Levis - Rue de Courchevel
1190B Rue de Courchevel, Lévis, Canada, G6W 0M6
La rue De Courchevel abrite une communauté florissante de technologie, de recherche et de développement avec des liaisons de transport pratiques à proximité pour un accès facile à travers le Québec et au-delà.
Montreal - University Street
2001 Blvd. Robert Bourassa, Montreal, canada, H3A 2A6
Le Centre de la rue University occupe un immeuble de bureaux au cœur du quartier des affaires de Montréal. Il est niché parmi les nombreux gratte-ciels du centre-ville de Montréal et bénéficie d'une connexion directe au plus grand complexe souterrain du monde.
Quebec - Sainte Foy
2828 Boulevard Laurier, Suite 700, Quebec City, Canada, G1V 0B9
Stratégiquement situé à proximité de l'aéroport international et de l'intersection des grands axes routiers, le centre a pour voisins l'Université Laval, des commerces, des hôtels et de nombreux commerces.
Gatineau - Rue Montcalm
200 Rue Montcalm, Gatineau , Canada, J8Y 3B5
Situé dans la région de la capitale nationale du Canada, à l'intersection principale du centre-ville de Gatineau.
Québec-Centre d'Affaires Lebourgneuf
Suite 400, Rue de la Couronne, Québec, Canada, G1K 6P4
Emplacement d'Affaires Idéal au Cœur de la Ville de Québec
Implantez votre entreprise dans l'un des pôles commerciaux dynamiques de la ville de Québec. Notre espace de bureau au Centre d'Affaires Lebourgneuf, idéalement situé à quelques minutes de l'Autoroute 40, est facilement accessible en voiture, ou laissez votre véhicule à la maison et profitez de l'espace de stationnement pour vélos sur place.
Travaillez efficacement dans des bureaux lumineux et entièrement meublés, conçus pour la productivité, avec tout ce dont vous avez besoin pour réussir. Lorsque vient le moment de faire une pause, détendez-vous dans le confortable salon. Après une journée bien remplie, profitez du shopping ou des restaurants au centre commercial Galeries de la Capitale, situé à proximité.
Ville de Québec - Complexe Jules-Dallaire
2828 Boulevard Laurier, Ville de Québec, Canada, G1V 0B9
Situé dans le prestigieux développement du Complexe Jules Dallaire, facile d'accès grâce aux transports en commun pratiques du secteur.
Ce formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux professionnels TI de niveau débutant à intermédiaire qui souhaitent comprendre et mettre en œuvre la gestion de confiance, des risques et de la sécurité pour l'IA (AI TRiSM) dans leur organisation.
À la fin de cette formation, les participants seront capables de :
Maîtriser les concepts clés et l'importance de la gestion de la confiance, des risques et de la sécurité en matière d'IA.
Identifier et atténuer les risques liés aux systèmes d'IA.
Mettre en œuvre les meilleures pratiques en matière de sécurité pour l'IA.
Comprendre la conformité réglementaire et les considérations éthiques relatives à l'IA.
Développer des stratégies efficaces pour la gouvernance et la gestion de l'IA.
Ce cours en direct, dispensé par un formateur (en ligne ou sur site), s'adresse aux professionnels intermédiaires de l'intelligence artificielle et de la cybersécurité qui souhaitent comprendre et traiter les vulnérabilités de sécurité spécifiques aux modèles et systèmes d'IA, en particulier dans des secteurs réglementés tels que la finance, la gouvernance des données et le conseil.
À l’issue de ce cours, les participants seront capables de :
Comprendre les types d'attaques adversaires ciblant les systèmes d'IA et les méthodes pour y faire face.
Mettre en œuvre des techniques de renforcement du modèle pour sécuriser les pipelines de l'apprentissage automatique.
Garantir la sécurité et l'intégrité des données dans les modèles d'apprentissage automatique.
Naviguer dans les exigences de conformité réglementaire liées à la sécurité de l'IA.
Ce cours en direct, animé par un instructeur (en ligne ou sur place), s'adresse aux professionnels avancés de la sécurité et aux spécialistes de l'IA qui souhaitent simuler des attaques sur les systèmes d'intelligence artificielle, découvrir les vulnérabilités et renforcer la robustesse des modèles IA déployés.
À la fin de ce cours, les participants seront en mesure de :
Simuler des menaces du monde réel pour les modèles d'apprentissage automatique.
Générer des exemples adverses pour tester la robustesse du modèle.
Évaluer la surface d'attaque des API et pipelines IA.
Concevoir des stratégies de red teaming pour les environnements de déploiement AI.
Ce formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux ingénieurs intermédiaires et aux professionnels de la sécurité qui souhaitent sécuriser les modèles IA déployés au niveau des périphéries contre des menaces telles que l'altération, la fuite de données, les entrées adversaires et les attaques physiques.
À la fin de cette formation, les participants seront en mesure de :
Identifier et évaluer les risques de sécurité dans les déploiements d'IA au niveau des périphéries.
Appliquer des techniques de résistance aux altérations et d'inférence chiffrée.
Renforcer les modèles déployés sur le périmètre et sécuriser les canaux de données.
Mettre en œuvre des stratégies de mitigation des menaces spécifiques aux systèmes embarqués et contraints.
Ce entraînement en direct, dirigé par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés qui souhaitent mettre en œuvre et évaluer des techniques telles que l'apprentissage fédéré, le calcul multipartie sécurisé, le chiffrement homomorphique et la confidentialité différentielle dans les pipelines d'apprentissage automatique réels.
À la fin de cet entraînement, les participants seront en mesure de :
Comprendre et comparer les techniques clés de préservation de la vie privée en ML.
Mettre en œuvre des systèmes d'apprentissage fédéré à l'aide de cadres open-source.
Appliquer la confidentialité différentielle pour un partage de données et une formation de modèles sûrs.
Utiliser des techniques de chiffrement et de calcul sécurisé pour protéger les entrées et les sorties des modèles.
Artificial Intelligence (AI) introduit de nouvelles dimensions des risques opérationnels, des défis de gouvernance et de l'exposition à la cybersécurité pour les agences et départements du gouvernement.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux professionnels IT et du risque du secteur public avec une expérience limitée en intelligence artificielle qui souhaitent comprendre comment évaluer, surveiller et sécuriser les systèmes d'IA dans le contexte gouvernemental ou réglementaire.
À la fin de cette formation, les participants seront capables de :
Interpréter les concepts clés de risque liés aux systèmes d'IA, y compris les biais, l'imprévisibilité et le dérive du modèle.
Appliquer des cadres de gouvernance et d'audit spécifiques à l'IA tels que NIST AI RMF et ISO/IEC 42001.
Reconnaître les menaces de cybersécurité ciblant les modèles et les pipelines de données IA.
Établir des plans de gestion des risques interdépartementaux et une mise en conformité avec la politique pour le déploiement d'IA.
Format du cours
Cours interactif et discussion sur les cas d'utilisation du secteur public.
Exercices de cadres de gouvernance IA et cartographie des politiques.
Modélisation des menaces basée sur des scénarios et évaluation des risques.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
Cette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement AI UE, GDPR, ISO/CEI 42001 et l'Ordre exécutif américain sur l'IA.
À la fin de cette formation, les participants seront capables de :
Comprendre les risques juridiques, éthiques et réglementaires associés à l'utilisation de l'IA dans différents départements.
Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement AI UE, NIST AI RMF, ISO/CEI 42001).
Établir des politiques de sécurité, d'audit et de supervision pour le déploiement de l'IA dans l'entreprise.
Développer des lignes directrices d'achat et d'utilisation pour les systèmes d'IA tiers et internes.
This instructor-led, live training in Québec (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
Understand the core vulnerabilities of LLM-based systems.
Apply secure design principles to LLM app architecture.
Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Ce cours en direct, animé par un formateur (en ligne ou sur place), s'adresse aux professionnels intermédiaires de l'apprentissage automatique et de la cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles IA, à travers des cadres conceptuels et des défenses pratiques comme un entraînement robuste et une confidentialité différentielle.
À la fin de ce cours, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adversaires, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques, y compris l'entraînement adversaire, l'injection de bruit et les techniques préservant la confidentialité.
Concevoir des stratégies d'évaluation des menaces pour les modèles dans un environnement de production.
Cette formation en direct animée par un formateur (en ligne ou sur place) s'adresse aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité de l'IA, les vecteurs de menace et les cadres mondiaux tels que NIST AI RMF et ISO/IEC 42001.
À la fin de cette formation, les participants pourront :
Comprendre les risques de sécurité uniques introduits par les systèmes IA.
Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
Aligner l'utilisation de l'IA avec les normes émergentes, les directives de conformité et les principes éthiques.
AI Security formation à Québec, Weekend AI Security cours à Québec, Soir AI Security formation à Québec, AI Security formateur en ligne à Québec, AI Security formation à Québec, AI Security cours du soir à Québec, AI Security formation Intra à Québec, AI Security formation Intra Entreprise à Québec, AI Security formation Inter à Québec, AI Security formation Inter Entreprise à Québec, Weekend AI Security formation à Québec, AI Security préparation aux examens à Québec, AI Security formateur à Québec, AI Security professeur à Québec,AI Security cours à Québec, AI Security coach à Québec, AI Security entraînement à Québec, AI Security coaching à Québec, AI Security instructeur à Québec, AI Security cours particuliers à Québec, AI Security stage de préparation à Québec, AI Security sur place à Québec, AI Security cours privé à Québec, Soir AI Security cours à Québec, AI Security préparation à Québec