Les cours de formation en ligne ou sur site, dirigés par un instructeur, démontrent par une pratique interactive comment utiliser les Grands Modèles de Langage pour diverses tâches de langage naturel. La formation aux LLMs est disponible en tant que "formation en ligne" ou "formation sur site". La formation en ligne (également appelée "formation à distance") est réalisée par le biais d'un bureau interactif à distance. La formation en direct sur site peut être réalisée localement dans les locaux du client en Calgary ou dans les centres de formation de NobleProg en Calgary. NobleProg propose également des services de conseil sur mesure en Large Language Models (LLMs) en Calgary. Nos consultants ont aidé des centaines de clients à travers le monde à se débloquer. Nos clients apprécient notre approche hautement personnalisée et considèrent que le conseil est bien adapté aux projets complexes à long terme, aux projets à court terme nécessitant une expertise de niche, à la résolution de problèmes urgents, au transfert de connaissances critiques, ainsi qu'à l'accompagnement et au soutien d'une équipe. Pour en savoir plus sur nos missions de conseil passées, consultez les études de cas de conseil. Si vous avez plutôt besoin de personnel pour des projets continus, NobleProg peut soutenir votre organisation avec une gamme complète de personnel. Que vous ayez besoin de missions à moyen ou à long terme, d'une expertise de niveau débutant ou hautement qualifié, d'un personnel unique ou de plusieurs personnes, nos solutions d'intérim et de renforcement du personnel peuvent vous fournir le talent nécessaire pour mener à bien vos projets les plus ambitieux. Contactez-nous pour plus d'informations. NobleProg -- Votre fournisseur local de formation
Calgary - Macleod Place II
5940 Macleod Trail SW, Calgary, Canada, T2H2H4
Stratégiquement situé à quelques minutes du centre-ville, le centre offre un accès facile car il se trouve à côté de deux routes principales et la station Chinook Light Rapid Transit est à seulement deux pâtés de maisons.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux professionnels du management qui souhaitent comprendre ce que sont les LLM, explorer leur impact potentiel sur les opérations commerciales et évaluer l'utilisation pratique d'outils AI tels que ChatGPT, Copilot de Microsoft ou Grok pour des tâches réelles comme la création de contenu, la synthèse de données et le soutien à la décision.
À la fin de cette formation, les participants seront capables de :
Comprendre ce que sont les LLM et comment fonctionnent des outils comme ChatGPT et Copilot.
Utiliser des techniques d'incitation pour obtenir des résultats pratiques et fiables à partir de LLM.
Évaluer des cas d'utilisation réels tels que la rédaction d'e-mails, la synthèse de documents et l'automatisation de la productivité.
Identifier les opportunités d'investissement et les applications stratégiques pour l'adoption de l'IA.
Cette formation en direct (en ligne ou sur site) est destinée aux équipes de direction souhaitant comprendre la valeur stratégique des modèles de langage larges (LLMs) et des outils d'IA pour l'entreprise. Les participants exploreront comment intégrer ces outils dans les processus de travail à haut niveau, élaborer des prompts plus efficaces et évaluer les opportunités d'amélioration de la productivité et du retour sur investissement (ROI) grâce à l'adoption de l'IA.
À la fin de cette formation, les participants seront en mesure de :
Comprendre le fonctionnement des LLMs et comment des outils comme ChatGPT et Copilot les appliquent.
Utiliser des interactions basées sur des prompts pour automatiser et accélérer les tâches.
Appliquer les outils d'IA à des scénarios réels comme la rédaction de courriels, la synthèse de rapports et l'examen d'accords.
Évaluer les avantages stratégiques, les limites et les considérations de licence pour l'adoption des LLMs.
Cette formation en direct (en ligne ou sur place) est destinée aux chercheurs en IA, scientifiques des données et développeurs intermédiaires à avancés qui souhaitent comprendre, affiner et mettre en œuvre les Modèles de Langue Importants (LLM) de Meta AI pour diverses applications de Traitement du Langage Naturel (NLP).
À la fin de cette formation, les participants seront capables de :
Comprendre l'architecture et le fonctionnement des Modèles de Langue Importants de Meta AI.
Configurer et affiner les LLM de Meta AI pour des cas d'utilisation spécifiques.
Mettre en œuvre des applications basées sur les LLM, telles que la synthèse de texte, les chatbots et l'analyse des sentiments.
Optimiser et déployer efficacement les modèles de langue importants.
Cette formation en direct, encadrée par un instructeur à Calgary (en ligne ou sur place), s'adresse aux professionnels de l'intelligence artificielle de niveau intermédiaire, aux analystes d'affaires et aux dirigeants technologiques souhaitant comprendre les principes de l'IA générative et les applications des grands modèles de langage (LLMs) dans un contexte professionnel. Les participants apprendront les aspects des transformateurs, du génie des prompts et des considérations éthiques liées à la mise en œuvre de ces modèles pour des solutions réelles.
À la fin de cette formation, les participants seront capables de :
Comprendre les principes sous-jacents de l'IA générative et des grands modèles de langage.
Mettre en œuvre et affiner les LLM pour des applications commerciales spécifiques.
Appliquer des techniques de génie des prompts pour optimiser les sorties du modèle.
Reconnaître les considérations éthiques et gérer les risques lors de la déploiement des LLM.
Cette formation en direct avec instructeur en Calgary (en ligne ou sur place) est destinée aux professionnels de l'IA et aux éthiciens de niveau intermédiaire, aux scientifiques des données et aux ingénieurs, ainsi qu'aux décideurs politiques et aux parties prenantes qui souhaitent comprendre et naviguer dans le paysage éthique des LLM.
À l'issue de cette formation, les participants seront en mesure de :
Identifier les questions et défis éthiques associés aux LLM.
Appliquer les cadres et principes éthiques au déploiement du LLM.
Évaluer l'impact sociétal des LLM et atténuer les risques potentiels.
Élaborer des stratégies pour un développement et une utilisation responsables de l'IA.
Cette formation en direct avec instructeur en Calgary (en ligne ou sur site) s'adresse aux praticiens du NLP et aux data scientists de niveau intermédiaire, aux créateurs de contenu et aux traducteurs, ainsi qu'aux entreprises internationales qui souhaitent utiliser les LLM pour la traduction de langues et la création de contenu multilingue.
A l'issue de cette formation, les participants seront capables de :
Comprendre les principes de l'apprentissage et de la traduction multilingues avec les LLM.
Mettre en œuvre des LLM pour traduire du contenu entre différentes langues.
Créer et gérer des ensembles de données multilingues pour la formation des LLM.
Développer des stratégies pour maintenir la cohérence et la qualité de la traduction.
Cette formation en direct avec instructeur en Calgary (en ligne ou sur site) est destinée aux analystes financiers de niveau intermédiaire, aux scientifiques des données et aux professionnels de l'investissement qui souhaitent tirer parti des LLM pour l'analyse et la prédiction des marchés financiers.
A la fin de cette formation, les participants seront capables de :
Comprendre l'application des LLM dans l'analyse des marchés financiers.
Utiliser les LLM pour traiter les nouvelles financières, les rapports et les données afin d'obtenir des informations sur le marché.
Développer des modèles prédictifs pour les prix des actions, les tendances du marché et les indicateurs économiques.
Intégrer les connaissances du LLM dans les processus de prise de décision en matière d'investissement.
Cette formation en Calgary (en ligne ou sur site) est destinée aux scientifiques et chercheurs en environnement de niveau intermédiaire, aux analystes de données, aux décideurs politiques et aux défenseurs de l'environnement qui souhaitent utiliser les LLM pour la modélisation et l'analyse de l'environnement.
A la fin de cette formation, les participants seront capables de :
Comprendre l'application des LLM dans les sciences de l'environnement.
Utiliser les LLM pour analyser et modéliser les données environnementales.
Interpréter les résultats des LLM pour les évaluations d'impact sur l'environnement.
Communiquer efficacement les résultats pour informer les politiques et les efforts de conservation.
Cette formation en Calgary (en ligne ou sur site) est destinée aux développeurs VR et AR de niveau intermédiaire, aux concepteurs de jeux et aux ingénieurs IA qui souhaitent incorporer les LLM dans les applications VR et AR afin de créer des environnements plus attrayants et réactifs.
A la fin de cette formation, les participants seront capables de :
Comprendre le rôle des LLM dans la création d'expériences immersives de RV et de RA.
Développer des applications VR et AR qui utilisent les LLM pour les dialogues interactifs et la création de contenu.
Intégrer les LLM aux outils de développement VR et AR pour améliorer l'engagement de l'utilisateur.
Appliquer les meilleures pratiques pour concevoir des récits et des interactions pilotés par l'IA dans les espaces virtuels.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux data scientists de niveau intermédiaire, aux ingénieurs en apprentissage automatique et aux développeurs de logiciels qui souhaitent appliquer Large Language Models (LLMs) aux données multimodales pour des applications d'IA avancées.
À l'issue de cette formation, les participants seront en mesure de :
Comprendre les principes de l'apprentissage multimodal avec les LLM.
Implémenter les LLMs pour traiter et analyser des données texte, image et audio.
Développer des applications qui exploitent les forces de l'intégration de données multimodales.
Évaluer la performance des systèmes LLM multimodaux.
Cette formation en Calgary (en ligne ou sur site) est destinée aux professionnels de la cybersécurité de niveau intermédiaire et aux scientifiques des données qui souhaitent utiliser les LLM pour améliorer les mesures de cybersécurité et les renseignements sur les menaces.
A l'issue de cette formation, les participants seront en mesure de :
Comprendre le rôle des LLM dans la cybersécurité.
Mettre en œuvre les LLM pour la détection et l'analyse des menaces.
Utiliser les LLM pour l'automatisation de la sécurité et la réponse.
Intégrer les LLM à l'infrastructure de sécurité existante.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux data scientists et aux analystes commerciaux de niveau intermédiaire qui souhaitent utiliser les grands modèles de langage (LLM) pour prévoir les tendances et les comportements dans diverses industries.
A la fin de cette formation, les participants seront capables de :
Comprendre les principes fondamentaux des LLM et leur rôle dans l'analyse prédictive.
Mettre en œuvre les LLM pour analyser et prévoir les données dans diverses industries.
Évaluer l'efficacité des modèles prédictifs utilisant les LLM.
Intégrer les LLMs aux pipelines de traitement de données existants.
Cette formation en direct avec instructeur en Calgary (en ligne ou sur site) est destinée aux data scientists de niveau intermédiaire qui souhaitent acquérir une compréhension globale et des compétences pratiques dans les domaines Large Language Models (LLMs) et Reinforcement Learning (RL).
A l'issue de cette formation, les participants seront capables de :
Comprendre les composants et la fonctionnalité des modèles de transformateurs.
Optimiser et affiner les LLM pour des tâches et des applications spécifiques.
Comprendre les principes fondamentaux et les méthodologies de l'apprentissage par renforcement.
Apprendre comment les techniques d'apprentissage par renforcement peuvent améliorer les performances des LLM.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux créateurs de contenu de niveau intermédiaire, aux spécialistes du marketing et aux technologues de l'éducation qui souhaitent exploiter la puissance des LLM pour générer un contenu de haute qualité, diversifié et attrayant dans divers domaines.
À l'issue de cette formation, les participants seront en mesure de :
Comprendre les capacités des LLM et leur application dans la génération de contenu.
Configurer et utiliser les LLM pour générer différents types de contenu.
Appliquer les meilleures pratiques en matière d'incitation et d'ajustement des LLM pour produire les résultats souhaités.
Évaluer la qualité du contenu généré par l'IA et l'affiner pour des publics spécifiques.
Explorer les techniques avancées de génération de contenu créatif et multimodal avec les LLM.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux éducateurs, aux professionnels des technologies de l'information et de la communication et aux chercheurs de différents niveaux d'expérience et d'expertise qui souhaitent tirer parti des LLM pour créer des expériences éducatives personnalisées.
A la fin de cette formation, les participants seront capables de :
Comprendre l'architecture et les capacités des LLM.
Identifier les opportunités de personnalisation du contenu éducatif en utilisant les LLM.
Concevoir des plateformes d'apprentissage adaptatif qui utilisent les LLM pour la personnalisation du contenu.
Mettre en œuvre des stratégies basées sur les LLM pour améliorer l'engagement des étudiants et les résultats d'apprentissage.
Évaluer l'efficacité des LLM dans des contextes éducatifs et prendre des décisions fondées sur des données pour
Cette formation en direct, animée par un formateur (en ligne ou sur site) s'adresse aux praticiens intermédiaires de l'apprentissage machine et aux développeurs IA qui souhaitent affiner et déployer des modèles à poids ouverts comme LLaMA, Mistral et Qwen pour des applications spécifiques d'affaires ou internes.
À la fin de cette formation, les participants seront capables de :
Comprendre l'écosystème et les différences entre les modèles LLM open source.
Préparer des jeux de données et des configurations d'affinement pour des modèles comme LLaMA, Mistral et Qwen.
Exécuter des pipelines d'affinement en utilisant Hugging Face Transformers et PEFT.
Évaluer, sauvegarder et déployer des modèles affinés dans des environnements sécurisés.
Cette formation en Calgary (en ligne ou sur site) est destinée aux développeurs de logiciels et aux scientifiques de données de niveau débutant à intermédiaire qui souhaitent mettre en œuvre les LLM dans les systèmes de reconnaissance et de synthèse vocales.
A la fin de cette formation, les participants seront capables de :
Comprendre le rôle des LLM dans les technologies de la parole.
Implémenter les LLM pour une reconnaissance vocale précise et une synthèse vocale naturelle.
Intégrer les LLM dans les moteurs de reconnaissance de la parole et les synthétiseurs de la parole.
Évaluer et améliorer les performances des systèmes vocaux utilisant les LLM.
Rester informé des tendances actuelles et des orientations futures dans les technologies de la parole.
Cette formation en direct avec instructeur en Calgary (en ligne ou sur site) s'adresse aux professionnels du support client et de l'informatique de niveau débutant à intermédiaire qui souhaitent mettre en œuvre des LLM pour créer des chatbots de support client réactifs et intelligents.
A l'issue de cette formation, les participants seront capables de :
Comprendre les principes fondamentaux et l'architecture de Large Language Models (LLMs).
Concevoir et intégrer les LLM dans les systèmes de support client.
Améliorer la réactivité et l'expérience utilisateur des chatbots.
Aborder les considérations éthiques et assurer la conformité avec les normes de l'industrie.
Déployer et maintenir un chatbot basé sur les LLM pour des applications réelles.
Cette formation en direct, animée par un formateur (en ligne ou sur site) est destinée aux scientifiques des données et ingénieurs IA de niveau intermédiaire qui souhaitent affiner les grands modèles de langage de manière plus abordable et efficace en utilisant des méthodes comme LoRA, Adapter Tuning et Prefix Tuning.
À la fin de cette formation, les participants seront capables de :
Comprendre la théorie derrière les approches d'affinement paramétrique efficace.
Mettre en œuvre LoRA, Adapter Tuning et Prefix Tuning à l'aide de Hugging Face PEFT.
Comparer les avantages et inconvénients en termes de performance et de coût des méthodes PEFT par rapport à un affinement complet.
Déployer et échelonner les modèles de langage affinés avec une réduction des besoins en calcul et en stockage.
Cette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux ingénieurs intermédiaires et avancés en apprentissage automatique, développeurs IA et scientifiques des données qui souhaitent apprendre à utiliser QLoRA pour ajuster efficacement de grands modèles à des tâches spécifiques et des personnalisations.
À la fin de cette formation, les participants seront capables de :
Comprendre la théorie derrière QLoRA et les techniques de quantification pour les LLM (Large Language Models).
Mettre en œuvre QLoRA pour l'ajustement fin de grands modèles de langage dans des applications spécifiques à un domaine.
Optimiser la performance de l'ajustement fin sur des ressources informatiques limitées en utilisant la quantification.
Déployer et évaluer efficacement les modèles ajustés fin dans des applications du monde réel.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux professionnels du marketing et des données de niveau intermédiaire qui souhaitent appliquer les LLM pour analyser et interpréter les sentiments du public à partir de diverses sources textuelles telles que les messages sur les médias sociaux, les critiques de produits et les commentaires des clients.
A la fin de cette formation, les participants seront capables de :
Comprendre les principes de l'analyse des sentiments et son application à l'aide des LLM.
Prétraiter et préparer les ensembles de données pour l'analyse des sentiments.
Entraîner et affiner les LLMs pour refléter avec précision le sentiment dans le texte.
Analyser les sentiments en temps réel à partir des médias sociaux et d'autres sources de texte.
Intégrer les résultats de l'analyse des sentiments dans les stratégies commerciales et les processus de prise de décision.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux développeurs de logiciels et aux rédacteurs techniques de niveau intermédiaire qui souhaitent tirer parti des LLM pour rationaliser leur flux de travail de codage et créer une documentation détaillée et complète.
A la fin de cette formation, les participants seront capables de :
Comprendre le rôle des LLM dans l'automatisation de la génération de code et de la documentation logicielle.
Utiliser les LLM pour créer des extraits de code et de la documentation précis et efficaces.
Intégrer les LLM dans leur cycle de développement logiciel pour améliorer leur productivité.
Maintenir des normes de documentation de haute qualité à l'aide d'outils automatisés.
Aborder les considérations éthiques et les meilleures pratiques pour l'utilisation de l'IA dans le développement de logiciels.
Cette formation en direct avec instructeur en Calgary (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire et aux analystes de données qui souhaitent exploiter la puissance des LLM pour extraire des informations commerciales.
A la fin de cette formation, les participants seront capables de :
Comprendre les principes fondamentaux et les applications des LLM dans le contexte de l'intelligence économique.
Appliquer les LLM pour analyser de grands ensembles de données et extraire des informations significatives.
Intégrer les analyses basées sur les LLM dans les processus de prise de décision stratégique.
Évaluer les considérations éthiques et les meilleures pratiques pour l'utilisation des LLM dans l'entreprise.
Anticiper les tendances futures de l'IA et se préparer à l'évolution du paysage de l'intelligence économique.
Cette formation en direct dirigée par un instructeur en Calgary (en ligne ou sur site) s'adresse aux développeurs et aux scientifiques de données de niveau intermédiaire à avancé qui souhaitent maîtriser LlamaIndex pour développer des applications innovantes basées sur LLM.
A la fin de cette formation, les participants seront capables de :
Mettre en place et configurer LlamaIndex pour l'utiliser avec les LLM.
Indexer et interroger des ensembles de données personnalisés à l'aide de LlamaIndex pour améliorer la fonctionnalité des LLM.
Concevoir et développer des applications sophistiquées qui utilisent LlamaIndex et les LLM.
Comprendre et appliquer les meilleures pratiques pour travailler avec les LLM et LlamaIndex.
Naviguer dans les considérations éthiques impliquées dans le déploiement d'applications alimentées par des LLM.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux chercheurs intermédiaires en IA, professionnels de l'apprentissage automatique et scientifiques des données qui souhaitent utiliser LlamaIndex pour améliorer les capacités des modèles d'IA, les rendant plus précis et fiables pour diverses applications.
À la fin de cette formation, les participants seront en mesure de :
Comprendre les principes et les composants de LlamaIndex.
Ingestion et structuration des données pour une utilisation avec des modèles de langage larges (LLMs).
Mettre en œuvre l'augmentation du contexte pour améliorer les performances des modèles d'IA.
Intégrer LlamaIndex dans des systèmes et workflows d'IA existants.
Mistral AI is a powerful family of open-source and enterprise-ready AI models for language, multimodal, and agentic applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to build, deploy, and manage AI agents using Mistral’s Medium 3, Le Chat Enterprise, and Devstral models.
By the end of this training, participants will be able to:
Understand the architecture and capabilities of Mistral Medium 3, Le Chat Enterprise, and Devstral.
Design and implement AI agents leveraging Mistral models for enterprise and developer use cases.
Integrate coding systems, connectors, and enterprise data into agent workflows.
Optimize performance, cost, and compliance for Mistral-powered agents.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Mistral AI is an open AI platform that enables teams to build and integrate conversational assistants into enterprise and customer-facing workflows.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level product managers, full-stack developers, and integration engineers who wish to design, integrate, and productize conversational assistants using Mistral connectors and integrations.
By the end of this training, participants will be able to:
Integrate Mistral conversational models with enterprise and SaaS connectors.
Implement retrieval-augmented generation (RAG) for grounded responses.
Design UX patterns for internal and external chat assistants.
Deploy assistants into product workflows for real-world use cases.
Format of the Course
Interactive lecture and discussion.
Hands-on integration exercises.
Live-lab development of conversational assistants.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Cette formation en direct avec instructeur dans Calgary (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent tirer parti de la puissance de l'ingénierie rapide et de l'apprentissage à court terme afin d'optimiser les performances du LLM pour des applications du monde réel.
A l'issue de cette formation, les participants seront en mesure de :
Comprendre les principes de l'ingénierie des messages-guides et de l'apprentissage à court terme.
Concevoir des messages-guides efficaces pour diverses tâches NLP.
Tirer parti des techniques d'apprentissage à court terme pour adapter les LLM avec un minimum de données.
Optimiser les performances des LLM pour des applications pratiques.
LangGraph est un framework pour la construction d'applications LLM à état et multi-acteurs sous forme de graphes composables avec un état persistant et un contrôle précis sur l'exécution.
Cette formation en direct (en ligne ou sur site) dirigée par un formateur s'adresse aux professionnels intermédiaires et avancés qui souhaitent concevoir, mettre en œuvre et exploiter des solutions juridiques basées sur LangGraph avec les contrôles de conformité, de traçabilité et de gouvernance nécessaires.
À la fin de cette formation, les participants seront capables de :
Concevoir des workflows spécifiques à la juridique LangGraph qui préservent l'auditabilité et la conformité.
Intégrer des ontologies et normes de documents juridiques dans l'état et le traitement du graphe.
Mettre en œuvre des garde-fous, des approbations humaines en boucle fermée et des chemins de décision traçables.
Déployer, surveiller et maintenir les services LangGraph en production avec visibilité et contrôle des coûts.
Format de la Formation
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire live.
Options d'adaptation du cours
Pour demander une formation sur mesure pour ce cours, veuillez nous contacter pour en faire la demande.
Mistral AI is an open and enterprise-ready AI platform that provides features for secure, compliant, and responsible AI deployment.
This instructor-led, live training (online or onsite) is aimed at intermediate-level compliance leads, security architects, and legal/ops stakeholders who wish to implement responsible AI practices with Mistral by leveraging privacy, data residency, and enterprise control mechanisms.
By the end of this training, participants will be able to:
Implement privacy-preserving techniques in Mistral deployments.
Apply data residency strategies to meet regulatory requirements.
Set up enterprise-grade controls such as RBAC, SSO, and audit logs.
Evaluate vendor and deployment options for compliance alignment.
Format of the Course
Interactive lecture and discussion.
Compliance-focused case studies and exercises.
Hands-on implementation of enterprise AI controls.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
LangGraph est un framework permettant de construire des applications LLM à état et multi-acteurs sous forme de graphes composables avec un état persistant et un contrôle d'exécution.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur s'adresse aux professionnels intermédiaires et avancés souhaitant concevoir, mettre en œuvre et exploiter des solutions financières basées sur LangGraph avec une gouvernance, une observabilité et une conformité appropriées.
A la fin de cette formation, les participants seront capables de :
Concevoir des workflows LangGraph spécifiques aux finances en adéquation avec les exigences réglementaires et d'audit.
Intégrer les normes et ontologies de données financières dans l'état du graphe et les outils.
Mettre en œuvre la fiabilité, la sécurité et le contrôle humain-en-boucle pour des processus critiques.
Déployer, surveiller et optimiser les systèmes LangGraph en termes de performance, de coût et d'engagements SLA.
Format du cours
Cours interactif et discussions.
Nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Vertex AI fournit des outils puissants pour la construction de flux de travail LLM multimodaux qui intègrent des données textuelles, audio et d'images dans un seul pipeline. Avec un support pour les fenêtres contextuelles longues et les paramètres API Gemini, il permet des applications avancées en planification, raisonnement et intelligence croisée.
Cette formation dirigée par un instructeur (en ligne ou sur site) est destinée aux praticiens de niveau intermédiaire à avancé qui souhaitent concevoir, construire et optimiser des flux de travail AI multimodaux dans Vertex AI.
À la fin de cette formation, les participants seront capables de :
Tirer parti des modèles Gemini pour des entrées et sorties multimodales.
Implémenter des flux de travail à contexte long pour un raisonnement complexe.
Concevoir des pipelines qui intègrent l'analyse textuelle, audio et d'images.
Optimiser les paramètres API Gemini pour une performance et une efficacité coûts optimales.
Format du cours
Cours interactif et discussion.
Ateliers pratiques avec des flux de travail multimodaux.
Exercices basés sur des projets pour des cas d'utilisation multimodaux appliqués.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
Mistral models are open-source AI technologies that now extend into multimodal workflows, supporting both language and vision tasks for enterprise and research applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level ML researchers, applied engineers, and product teams who wish to build multimodal applications with Mistral models, including OCR and document understanding pipelines.
By the end of this training, participants will be able to:
Set up and configure Mistral models for multimodal tasks.
Implement OCR workflows and integrate them with NLP pipelines.
Design document understanding applications for enterprise use cases.
Develop vision-text search and assistive UI functionalities.
Format of the Course
Interactive lecture and discussion.
Hands-on coding exercises.
Live-lab implementation of multimodal pipelines.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Les modèles Devstral et Mistral sont des technologies d'IA open source conçues pour un déploiement flexible, une adaptation fine et une intégration évolutif.
Cette formation en présentiel (en ligne ou sur site) est destinée aux ingénieurs ML de niveau intermédiaire à avancé, aux équipes de plateforme et aux ingénieurs de recherche qui souhaitent héberger, adapter finement et gérer les modèles Mistral et Devstral dans des environnements de production.
À la fin de cette formation, les participants seront en mesure de :
Mettre en place et configurer des environnements d'hébergement pour les modèles Mistral et Devstral.
Appliquer des techniques d'adaptation fine pour des performances spécifiques à un domaine.
Implémenter la gestion de versions, le monitoring et la gouvernance du cycle de vie.
Assurer la sécurité, la conformité et l'utilisation responsable des modèles open source.
Format du cours
Cours interactif avec présentation et discussion.
Exercices pratiques d'hébergement et d'adaptation fine.
Mise en œuvre de pipelines de gouvernance et de monitoring dans un environnement live-lab.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
LangGraph permet des workflows multi-acteurs et étatiques alimentés par des LLM avec un contrôle précis sur les chemins d'exécution et la persistance de l'état. Dans le secteur de la santé, ces capacités sont essentielles pour la conformité, l'interopérabilité et la création de systèmes de soutien à la décision qui s'intègrent aux workflows médicaux.
Cette formation en direct animée par un instructeur (en ligne ou sur site) est destinée aux professionnels intermédiaires et avancés souhaitant concevoir, mettre en œuvre et gérer des solutions de santé basées sur LangGraph tout en répondant aux défis réglementaires, éthiques et opérationnels.
À la fin de cette formation, les participants seront capables de :
Concevoir des workflows spécifiques à la santé avec LangGraph en tenant compte de la conformité et de la traçabilité.
Intégrer les applications LangGraph aux ontologies et normes médicales (FHIR, SNOMED CT, ICD).
Appliquer les meilleures pratiques pour la fiabilité, la traçabilité et l'explicabilité dans des environnements sensibles.
Déployer, surveiller et valider les applications LangGraph dans des environnements de production en santé.
Format du cours
Cours interactif et discussions.
Exercices pratiques avec des études de cas réelles.
Mise en pratique dans un environnement de laboratoire live.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
LangGraph est un framework pour construire des applications LLM multi-acteurs et à état en utilisant des graphes composables avec un état persistant et un contrôle sur l'exécution.
Cette formation en direct, dirigée par un instructeur (en ligne ou sur site), s'adresse aux ingénieurs de plateforme AI avancés, DevOps pour AI et architectes ML qui souhaitent optimiser, déboguer, surveiller et opérer des systèmes LangGraph de production.
A la fin de cette formation, les participants seront capables de :
Définir et optimiser des topologies complexes de LangGraph pour la vitesse, le coût et l'évolutivité.
Concevoir une fiabilité grâce aux réessais, aux délais d'expiration, à l'idempotence et au redémarrage basé sur les points de contrôle.
Déboguer et tracer les exécutions des graphes, inspecter l'état et reproduire systématiquement les problèmes de production.
Instrumentaliser les graphes avec des journaux, des métriques et des traces, déployer en production et surveiller les SLAs et les coûts.
Format du cours
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire live.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour les arrangements.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs de niveau intermédiaire qui souhaitent apprendre à utiliser l'IA générative avec les grands modèles linguistiques (LLMs) pour diverses tâches et domaines.
À la fin de cette formation, les participants seront capables de :
Expliquer ce qu'est l'IA générative et comment elle fonctionne.
Décrire l'architecture des transformateurs qui alimente les LLMs.
Utiliser les lois d'échelle empiriques pour optimiser les LLMs pour différentes tâches et contraintes.
Appliquer les outils et méthodes de pointe pour l'entraînement, le raffinement et la mise en production des LLMs.
Discuter des opportunités et des risques de l'IA générative pour la société et les affaires.
Les LLM et les cadres d'agents autonomes comme AutoGen et CrewAI redéfinissent la façon dont les équipes de DevOps automatisent des tâches telles que le suivi des modifications, la génération de tests et la tripartition des alertes en simulant une collaboration et un processus décisionnel humain.
Cette formation animée par un instructeur (en ligne ou sur site) est destinée aux ingénieurs avancés qui souhaitent concevoir et mettre en œuvre des workflows d'automatisation de DevOps alimentés par des grands modèles de langage (LLM) et des systèmes multi-agents.
À la fin de cette formation, les participants seront capables de:
Intégrer des agents basés sur les LLM dans les workflows CI/CD pour une automatisation intelligente.
Automatiser la génération de tests, l'analyse des commits et les résumés des modifications à l'aide d'agents.
Coordonner plusieurs agents pour la tripartition des alertes, la génération de réponses et fournir des recommandations DevOps.
Construire des workflows alimentés par des agents sécurisés et maintenables en utilisant des frameworks open source.
Format du cours
Cours interactif et discussion.
Bonsoir d'exercices et de pratique.
Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
Mistral est une famille de modèles de langage de grande taille optimisés pour le déploiement en production à grande échelle et à moindre coût.
Cette formation dirigée par un instructeur (en ligne ou sur site) s'adresse aux ingénieurs d'infrastructure de niveau avancé, architectes cloud et responsables MLOps qui souhaitent concevoir, déployer et optimiser des architectures basées sur Mistral pour une performance maximale et des coûts minimisés.
À la fin de cette formation, les participants seront en mesure de :
Mettre en œuvre des schémas de déploiement évolutifs pour Mistral Medium 3.
Appliquer le batch processing, la quantification et des stratégies de service efficaces.
Optimiser les coûts d'inférence tout en maintenant la performance.
Concevoir des topologies de service prêtes pour la production pour des charges de travail d'entreprise.
Format du cours
Cours interactif avec discussion et présentation.
Nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
This instructor-led, live training in Calgary (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
Understand the core vulnerabilities of LLM-based systems.
Apply secure design principles to LLM app architecture.
Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
LangGraph est un cadre d'orchestration basé sur les graphes qui permet des workflows conditionnels et multistep pour les LLM et les outils, idéal pour automatiser et personnaliser les pipelines de contenu.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux marketeurs, stratèges en contenu et développeurs d'automatisation de niveau intermédiaire souhaitant mettre en œuvre des campagnes e-mail dynamiques à ramifications et des pipelines de génération de contenu à l'aide de LangGraph.
Au terme de cette formation, les participants seront capables de :
Développer des workflows de contenu et d'e-mail structurés en graphes avec une logique conditionnelle.
Intégrer des LLM, des API et des sources de données pour la personnalisation automatisée.
Gérer l'état, la mémoire et le contexte tout au long des campagnes multistep.
Evaluer, surveiller et optimiser les performances du workflow et les résultats de livraison.
Format du cours
Cours interactifs et discussions en groupe.
Laboratoires pratiques mettant en œuvre des workflows e-mail et des pipelines de contenu.
Exercices basés sur des scénarios concernant la personnalisation, le segmentation et la logique à ramifications.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Le Chat Enterprise est une solution de ChatOps privée qui offre des capacités d'IA conversationnelle sécurisées, personnalisables et gouvernées pour les organisations, avec support pour le RBAC, l'SSO, les connecteurs et les intégrations d'applications d'entreprise.
Cette formation dirigée par un instructeur (en ligne ou sur site) est destinée aux gestionnaires de produits intermédiaires, aux responsables informatiques, aux ingénieurs solutions et aux équipes de sécurité/conformité qui souhaitent déployer, configurer et gouverner Le Chat Enterprise dans des environnements d'entreprise.
À la fin de cette formation, les participants seront en mesure de :
Déployer et configurer Le Chat Enterprise de manière sécurisée.
Activer le RBAC, l'SSO et les contrôles conformes à la réglementation.
Intégrer Le Chat avec des applications et des magasins de données d'entreprise.
Concevoir et mettre en œuvre des playbooks de gouvernance et d'administration pour le ChatOps.
Format du cours
Cours interactif avec présentation et discussion.
Nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
Devstral est un cadre open-source conçu pour créer et exécuter des agents de codage qui peuvent interagir avec les bases de code, les outils de développement et les API afin d'améliorer la productivité des ingénieurs.
Cette formation dirigée par un instructeur (en ligne ou sur site) est destinée aux ingénieurs ML de niveau intermédiaire à avancé, aux équipes d'outillage de développement et aux SREs qui souhaitent concevoir, mettre en œuvre et optimiser des agents de codage en utilisant Devstral.
À la fin de cette formation, les participants seront capables de :
Configurer Devstral pour le développement d'agents de codage.
Concevoir des flux de travail agents pour l'exploration et la modification des bases de code.
Intégrer les agents de codage avec les outils de développement et les API.
Mettre en œuvre les meilleures pratiques pour un déploiement sécurisé et efficace des agents.
Format du cours
Cours interactif avec présentation et discussion.
Nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire live.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
Cette formation en direct avec instructeur dans Calgary (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire à avancé qui souhaitent personnaliser des modèles pré-entraînés pour des tâches et des ensembles de données spécifiques.
A l'issue de cette formation, les participants seront capables de :
Comprendre les principes du réglage fin et ses applications.
Préparer des ensembles de données pour affiner les modèles pré-entraînés.
Affiner les grands modèles de langage (LLM) pour les tâches de NLP.
Optimiser les performances des modèles et relever les défis les plus courants.
< p >LangGraph est un cadre permettant de composer des workflows structurés en graphes pour les LLM qui prennent en charge la branchements, l'utilisation d'outils, la mémoire et une exécution contrôlée.
Cette formation en direct (en ligne ou sur site) dirigée par un formateur s'adresse aux ingénieurs intermédiaires et aux équipes de produits qui souhaitent combiner la logique graphique de LangGraph avec les boucles d'agents LLM pour construire des applications dynamiques et contextuelles telles que des agents de support clients, des arbres de décision et des systèmes de récupération d'information.
A la fin de cette formation, les participants seront capables de :
Définir des flux de travail basés sur les graphes qui coordonnent les agents LLM, les outils et la mémoire.
Mettre en œuvre une routage conditionnel, des tentatives redémarrages et des remplacements pour une exécution robuste.
Intégrer le récupération de données, les API et les sorties structurées dans les boucles d'agents.
Évaluer, surveiller et renforcer le comportement des agents pour la fiabilité et la sécurité.
Format du cours
Cours interactif et discussion facilitée.
Laboratoires guidés et parcours de code dans un environnement sandbox.
Exercices de conception basés sur des scénarios et revues par les pairs.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
LLMs pour la Compréhension, le Refactoring et Documentation est un cours technique axé sur l'utilisation des grands modèles de langage (LLMs) pour améliorer la qualité du code, réduire les dettes techniques et automatiser les tâches de documentation au sein des équipes logicielles.
Ce stage en présentiel ou à distance est destiné aux professionnels du logiciel intermédiaires et avancés souhaitant utiliser des LLMs comme GPT pour analyser, refacturer et documenter efficacement les bases de code complexes ou héritées.
À la fin de cette formation, les participants seront capables de :
Utiliser des LLMs pour expliquer le code, les dépendances et la logique dans des dépôts inconnus.
Détecter et refacturer les anti-patte d'oignon et améliorer la lisibilité du code.
Générer et maintenir automatiquement des commentaires en ligne, des fichiers README et de la documentation API.
Intégrer les insights basés sur LLM dans les processus existants CI/CD et de revue.
Format du Cours
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options d'adaptation du cours
Pour demander une formation adaptée à ce cours, veuillez nous contacter pour faire des arrangements.
Cette formation en Calgary (en ligne ou sur site) s'adresse aux data scientists de niveau intermédiaire, aux développeurs d'IA et aux passionnés d'IA qui souhaitent utiliser les LLM pour effectuer diverses tâches de NLP et créer des contenus nouveaux et diversifiés à des fins différentes.
À la fin de cette formation, les participants seront capables de :
Établir un environnement de développement avec des LLM et des outils essentiels.
Exécuter de manière experte des tâches NLU et NLI avec les LLM.
Extraire, déduire et utiliser efficacement les graphes de connaissances.
Générer et gérer des dialogues à l'aide de LLM pour des applications conversationnelles.
Évaluer la qualité et la diversité du contenu généré par les LLM et l'IA générative.
Appliquer des principes éthiques garantissant l'équité et l'utilisation responsable des LLM.
LangGraph est un framework pour la construction d'applications LLM structurées en graphes qui prennent en charge le planification, le branchement, l'utilisation des outils, la mémoire et l'exécution contrôlée.
Cette formation en direct (en ligne ou sur place) animée par un formateur est destinée aux développeurs débutants, aux ingénieurs de prompts et aux praticiens des données qui souhaitent concevoir et construire des workflows LLM multi-étapes fiables à l'aide de LangGraph.
À la fin de cette formation, les participants seront capables de :
Expliquer les concepts fondamentaux de LangGraph (nœuds, arêtes, état) et quand les utiliser.
Créer des chaînes de prompts qui se branchent, appellent des outils et maintiennent la mémoire.
Intégrer des récupérations et des APIs externes dans les workflows graphiques.
Tester, déboguer et évaluer les applications LangGraph pour garantir fiabilité et sécurité.
Format du cours
Cours interactif et discussion guidée.
Laboratoires encadrés et démonstrations de code dans un environnement sandbox.
Exercices basés sur des scénarios pour la conception, le test et l'évaluation.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Cette formation en Calgary (en ligne ou sur site) est destinée aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser des modèles de langage à grande échelle pour diverses tâches de langage naturel.
A la fin de cette formation, les participants seront capables de :
Mettre en place un environnement de développement qui inclut un LLM populaire.
Créer un LLM de base et l'affiner sur un ensemble de données personnalisé.
Utiliser les LLM pour différentes tâches de langage naturel telles que le résumé de texte, la réponse aux questions, la génération de texte, etc.
Déboguer et évaluer les LLM en utilisant des outils tels que TensorBoard, PyTorch Lightning, et Hugging Face Datasets.
Mistral Medium 3 est un modèle de langage multimodal à grande échelle, performant et conçu pour une déployment d'entreprise dans divers environnements.
Cette formation dirigée par un instructeur (en ligne ou sur site) s'adresse aux ingénieurs AI/ML intermédiaires à avancés, aux architectes de plateforme et aux équipes MLOps qui souhaitent déployer, optimiser et sécuriser Mistral Medium 3 pour des cas d'utilisation d'entreprise.
À la fin de cette formation, les participants seront en mesure de :
Déployer Mistral Medium 3 à l'aide d'options API et auto-hébergées.
Optimiser les performances d'inférence et les coûts.
Mettre en œuvre des cas d'utilisation multimodaux avec Mistral Medium 3.
Appliquer les meilleures pratiques de sécurité et de conformité pour les environnements d'entreprise.
Format du cours
Cours interactif avec présentation et discussion.
Nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
Cette formation en direct (en ligne ou sur site) et dirigée par un formateur s'adresse aux professionnels débutants qui souhaitent installer, configurer et utiliser Ollama pour exécuter des modèles IA localement.
À la fin de cette formation, les participants seront en mesure de :
Comprendre les fondamentaux de Ollama et ses capacités.
Configurer Ollama pour exécuter des modèles IA localement.
Déployer et interagir avec des LLMs (Large Language Models) à l'aide de Ollama.
Optimiser les performances et l'utilisation des ressources pour les charges de travail IA.
Explorer les cas d'usage du déploiement local de l'IA dans divers secteurs.
En savoir plus...
Dernière Mise À Jour:
Nos clients témoignent (1)
invite à l'ingénierie
Michal - GE HealthCare
Formation - Generative AI with Large Language Models (LLMs)
Large Language Models (LLMs) formation à Calgary, Weekend Large Language Models (LLMs) cours à Calgary, Soir Large Language Models (LLMs) formation à Calgary, Large Language Models (LLMs) formateur en ligne à Calgary, Large Language Models (LLMs) formation à Calgary, Large Language Models (LLMs) cours du soir à Calgary, Large Language Models (LLMs) formation Intra à Calgary, Large Language Models (LLMs) formation Intra Entreprise à Calgary, Large Language Models (LLMs) formation Inter à Calgary, Large Language Models (LLMs) formation Inter Entreprise à Calgary, Large Language Models (LLMs) sur place à Calgary, Large Language Models (LLMs) coaching à Calgary, Large Language Models (LLMs) préparation aux examens à Calgary, Large Language Models (LLMs) cours privé à Calgary, Large Language Models (LLMs) coach à Calgary, Large Language Models (LLMs) instructeur à Calgary, Large Language Models (LLMs) entraînement à Calgary, Large Language Models (LLMs) préparation à Calgary, Large Language Models (LLMs) cours particuliers à Calgary, Large Language Models (LLMs) professeur à Calgary,Large Language Models (LLMs) cours à Calgary, Soir Large Language Models (LLMs) cours à Calgary, Large Language Models (LLMs) formateur à Calgary, Weekend Large Language Models (LLMs) formation à Calgary, Large Language Models (LLMs) stage de préparation à Calgary