Les cours de formation GPU (unité de traitement graphique) en direct, en ligne ou sur site, animés par un instructeur, démontrent, par le biais de discussions interactives et de pratiques pratiques, les principes fondamentaux du GPU et la manière de programmer les GPU. La formation GPU est disponible en tant que "formation en direct en ligne" ou "formation en direct sur site". La formation en direct en ligne (alias « formation en direct à distance ») est effectuée au moyen d'un ordinateur de bureau interactif à distance . La formation en direct sur site peut être effectuée localement dans les locaux du client en British Columbia ou dans les centres de formation d'entreprise NobleProg en British Columbia. NobleProg - Votre fournisseur de formation local
Burnaby - Metrotown
Suite 2600, 4720 Kingsway, Burnaby, Canada, V5H 4N2
Le Burnaby Metrotown Centre est un immeuble de bureaux de 30 étages situé au centre de la gare Metrotown Sky et relié au centre commercial Metropolis à Burnaby.
Surrey - King Cross
7404 King George Blvd, Surrey, Canada, V3W 1N6
Dans l'une des grandes villes à la croissance la plus rapide au Canada, notre centre d'affaires de King's Cross est un endroit pratique pour faire des affaires à Surrey. Outre les entreprises sur place des secteurs de la banque, de l'assurance et bien d'autres, des liaisons d'autobus régulières et le boulevard King George offrent des connexions rapides et pratiques vers le centre-ville. Newton Exchange, la principale plaque tournante des autobus reliant le sud du Surrey, le Lower Main Land, n'est qu'à un pâté de maisons.
King's Cross est un site communautaire à usage mixte populaire, abritant des cafés, des détaillants et des fast-foods - idéal pour les pauses ou les réunions informelles. Et avec une forte fréquentation et une visibilité depuis l'autoroute, il combine l'exposition que vous attendez d'un centre-ville avec la commodité d'un emplacement en dehors de la ville.
Kelowna - Landmark
1631 Dickson Avenue, Kelowna, Canada
Décrit comme l’emplacement commercial le plus prestigieux de Kelowna, Landmark comprend six tours de bureaux dans un complexe de style campus. Profitez de la proximité de l’autoroute 97 avec un stationnement sur place et des lignes de bus locales à moins de trois minutes à pied.
Stimulez la créativité pendant la journée de travail, avec des fenêtres du sol au plafond donnant sur la ville en contrebas. Lorsque vous avez besoin d’une pause, promenez-vous au centre de loisirs Parkinson’s ou divertissez les visiteurs dans les nombreux restaurants et bars à proximité.
Kelowna - The Innovation Centre
460 Avenue Doyle, Kelowna, Canada
Inspirant, dynamique et accueillant, le Centre d’innovation est votre nouveau lieu de travail. Bienvenue dans un autre type de travail à Kelowna. Le Centre d’innovation est la première incursion de la ville dans l’espace de travail flexible et fait de la création d’un environnement inspirant sa priorité. Situé dans l’unique Okanagan Centre for Innovation, cet environnement de bureau dynamique offre bien plus que quatre murs et un bureau. Au lieu de cela, les professionnels et les entrepreneurs trouveront un choix d’espaces, des salles de réunion impressionnantes aux bureaux collaboratifs et aux points de recharge pour ordinateurs portables. Ce centre de travail moderne très pratique et incroyablement bien équipé deviendra certainement votre nouveau lieu de prédilection pour la productivité. Situé dans le centre-ville animé de Kelowna, il se trouve à proximité de restaurants locaux populaires tels que le Blenz Coffee et le Dawett Fine Indian Cuisine.
Que vous utilisiez la connexion Wi-Fi ultra-rapide du site ou que vous obteniez l’aide supplémentaire du personnel de soutien administratif amical, le Centre d’innovation vous pousse à accomplir davantage en affaires. Le bâtiment lui-même est le fruit d’un partenariat entre le gouvernement local et un groupe de dirigeants technologiques qui ont uni leurs forces pour accélérer l’industrie technologique à Kelowna. Ils ont créé un endroit incroyable, qui est immédiatement relié au reste de la région par deux arrêts de bus pratiques. De plus, sa position centrale le place à côté de certains des lieux les plus attrayants de la ville, comme le Kelowna Yacht Club, les paisibles jardins Kasugai et le parc Stuart. Sinon, ceux qui ont besoin d'un peu d'inspiration ne devraient pas manquer le musée militaire de l'Okanagan et la bibliothèque régionale de l'Okanagan - succursale de Kelowna - des endroits idéaux pour faire le plein de créativité.
Maple Ridge - Dewdney Trunk Road
22420, chemin Dewdney, Maple Ridge, Canada, V2X 3J5
Positionnez votre entreprise dans un emplacement privilégié pour la production télévisuelle et cinématographique. Depuis notre espace de travail situé au 22420 Dewdney Trunk Road, vous pouvez rejoindre l’autoroute Lougheed, à cinq minutes en voiture, offrant un accès direct à l’aéroport international d’Abbotsford et au centre-ville de Vancouver.
Langley-Langley Business Centre
8661 201e Rue, Langley, Canada, V2Y 0G9
Installez votre entreprise à la porte d'entrée du Canada, avec un espace de bureau au Langley Business Centre, près de la Canada Route 1. Situé sur la 201e rue, les navetteurs peuvent profiter d'un accès direct à Vancouver et au Canada dans son ensemble avec un stationnement sur place et des lignes de bus locales vers le centre de Langley et Surrey.
Vancouver - Pacific Centre
701, rue West Georgia, Vancouver, Canada, V7Y 1G5
Le Vancouver Pacific Centre est situé dans l'un des bâtiments les plus importants du centre-ville d'affaires. Il est situé dans un immeuble moderne de grande hauteur, juste au-dessus du centre commercial Pacific Centre.
Vancouver - Park Place
666, rue Burrard, Vancouver, Canada, V6C 3P6
Le Vancouver Park Place Centre est situé au cœur du quartier financier du centre-ville, juste en face d'une station de Sky Train et d'un centre de transport en commun.
L'Atrium Centre occupe une propriété d'angle importante et distinctive dans le quartier des affaires principal du centre-ville de Victoria.
Centre Burnaby
Suite 200, 4170 Still Creek Drive , Burnaby , Canada, V5C 6C6
Le Burnaby Centre est situé dans un parc d'affaires de premier ordre à North Burnaby. Il est situé à proximité de l'autoroute 1 et à quelques pas du centre-ville de Brentwood et de la station SkyTrain Gilmore.
Port Moody - Brew Street
220 Brew Street, Port Moody, Canada, V3H 0H6
Ces salles de conférence sont situées dans un espace de bureau moderne dans une communauté prestigieuse. Deux arrêts d'autobus locaux et la station Inlet Centre située près de l'espace de travail offrent des services dans la région et dans le reste de Vancouver. Moins de 10 minutes pour dîner dans l'un des restaurants populaires de Suter Brook Village.
Vancouver-RBC Immeuble du Canada
Suite 1480, 885 Rue West Georgia, Vancouver, Canada, V6C 3E8
Point de repère commercial emblématique du centre-ville, le 885 West Georgia est réputé pour son pendule oscillant et sa galerie d'art publique exposée dans un grand hall d'entrée. Siège de RBC Banque du Canada, le 885 West Georgia est un immeuble de classe AAA de 23 étages de bureaux situé au cœur du quartier des affaires de Vancouver, à proximité de l'une des destinations commerciales les plus prisées du Canada, le CF Pacific Centre.
Cette formation en British Columbia (en ligne ou sur site) est destinée aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser OpenACC pour programmer des dispositifs hétérogènes et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant le SDK OpenACC, un périphérique supportant OpenACC et du Visual Studio code.
Créer un programme OpenACC de base qui effectue une addition vectorielle sur l'appareil et récupère les résultats de la mémoire de l'appareil.
Utilisez les directives et clauses OpenACC pour annoter le code et spécifier les régions parallèles, le mouvement des données et les options d'optimisation.
Utiliser l'API OpenACC pour demander des informations sur les périphériques, définir leur numéro, gérer les erreurs et synchroniser les événements.
Utiliser les bibliothèques OpenACC et les fonctions d'interopérabilité pour intégrer OpenACC à d'autres modèles de programmation, tels que CUDA, OpenMP et MPI.
Utiliser les outils OpenACC pour profiler et déboguer les programmes OpenACC et identifier les goulets d'étranglement et les opportunités en matière de performances.
Optimiser les programmes OpenACC en utilisant des techniques telles que la localité des données, la fusion des boucles, la fusion des noyaux et l'auto-tuning.
Cette formation en direct avec instructeur en British Columbia (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent apprendre les bases de la programmation GPU et les principaux cadres et outils pour le développement d'applications GPU.
A l'issue de cette formation, les participants seront capables de : Comprendre la différence entre le CPU et l'informatique GPU ainsi que les avantages et les défis de la programmation GPU.
Choisir le cadre et l'outil appropriés pour leur application GPU.
Créer un programme GPU de base qui effectue une addition vectorielle en utilisant un ou plusieurs cadres et outils.
Utiliser les API, langages et bibliothèques respectifs pour demander des informations sur le périphérique, allouer et désallouer la mémoire du périphérique, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser les espaces mémoire respectifs, tels que global, local, constant et privé, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution respectifs, tels que les éléments de travail, les groupes de travail, les threads, les blocs et les grilles, pour contrôler le parallélisme.
Déboguer et tester les programmes GPU à l'aide d'outils tels que CodeXL, CUDA-GDB, CUDA-MEMCHECK et NVIDIA Nsight.
Optimiser les programmes GPU à l'aide de techniques telles que le coalescing, la mise en cache, le prefetching et le profilage.
Cette formation en direct avec instructeur en British Columbia (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser différents frameworks pour la programmation GPU et comparer leurs caractéristiques, leurs performances et leur compatibilité.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant OpenCL SDK, CUDA Toolkit, ROCm Platform, un appareil prenant en charge OpenCL, CUDA ou ROCm, et Visual Studio Code.
Créer un programme GPU de base qui effectue une addition vectorielle en utilisant OpenCL, CUDA et ROCm, et comparer la syntaxe, la structure et l'exécution de chaque cadre.
Utiliser les API respectives pour demander des informations sur les périphériques, allouer et désallouer la mémoire des périphériques, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser les langages respectifs pour écrire des noyaux qui s'exécutent sur l'appareil et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques respectives pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire respectifs, tels que global, local, constant et privé, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution respectifs pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes GPU à l'aide d'outils tels que CodeXL, CUDA-GDB, CUDA-MEMCHECK et NVIDIA Nsight.
Optimiser les programmes GPU à l'aide de techniques telles que le coalescing, la mise en cache, le prefetching et le profilage.
CloudMatrix est la plateforme unifiée de développement et déploiement IA de Huawei conçue pour prendre en charge des pipelines d'inférence évolutifs et de production.
Cette formation en direct (en ligne ou sur site) animée par un instructeur s'adresse aux professionnels de l'IA débutants à intermédiaires qui souhaitent déployer et surveiller des modèles IA en utilisant la plateforme CloudMatrix avec une intégration CANN et MindSpore.
À la fin de cette formation, les participants seront capables de :
Utiliser CloudMatrix pour l'emballage, le déploiement et le service des modèles.
Convertir et optimiser des modèles pour les puces Ascend.
Mettre en place des pipelines pour des tâches d'inférence en temps réel et par lots.
Surveiller les déploiements et ajuster les performances dans un environnement de production.
Format du cours
Cours interactif et discussion.
Utilisation pratique de CloudMatrix avec des scénarios de déploiement réels.
Exercices guidés axés sur la conversion, l'optimisation et l'échelle.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours basée sur votre infrastructure IA ou environnement cloud, veuillez nous contacter pour en faire la demande.
Cette formation en British Columbia (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent installer et utiliser ROCm sur Windows pour programmer les AMD GPUs et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant la plate-forme ROCm, un code AMD GPU et Visual Studio sur Windows.
Créer un programme ROCm de base qui effectue une addition vectorielle sur le GPU et récupère les résultats de la mémoire GPU.
Utiliser l'API ROCm pour demander des informations sur le périphérique, allouer et désallouer la mémoire du périphérique, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser le langage HIP pour écrire des noyaux qui s'exécutent sur la mémoire GPU et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques HIP pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire ROCm et HIP, tels que les espaces globaux, partagés, constants et locaux, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution ROCm et HIP pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes ROCm et HIP à l'aide d'outils tels que ROCm Debugger et ROCm Profiler.
Optimiser les programmes ROCm et HIP en utilisant des techniques telles que le coalescing, le caching, le prefetching et le profiling.
Cette formation en British Columbia (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser ROCm et HIP pour programmer les AMD GPUs et exploiter leur parallélisme.
A la fin de cette formation, les participants seront capables de :
Mettre en place un environnement de développement comprenant la plate-forme ROCm, un code AMD GPU et Visual Studio.
Créer un programme ROCm de base qui effectue une addition vectorielle sur le GPU et récupère les résultats de la mémoire GPU.
Utiliser l'API ROCm pour demander des informations sur le périphérique, allouer et désallouer la mémoire du périphérique, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser le langage HIP pour écrire des noyaux qui s'exécutent sur la mémoire GPU et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques HIP pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire ROCm et HIP, tels que les espaces globaux, partagés, constants et locaux, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution ROCm et HIP pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes ROCm et HIP à l'aide d'outils tels que ROCm Debugger et ROCm Profiler.
Optimiser les programmes ROCm et HIP en utilisant des techniques telles que le coalescing, le caching, le prefetching et le profiling.
Ascend, Biren, and Cambricon are leading AI hardware platforms in China, each offering unique acceleration and profiling tools for production-scale AI workloads.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI infrastructure and performance engineers who wish to optimize model inference and training workflows across multiple Chinese AI chip platforms.
By the end of this training, participants will be able to:
Benchmark models on Ascend, Biren, and Cambricon platforms.
Identify system bottlenecks and memory/compute inefficiencies.
Apply graph-level, kernel-level, and operator-level optimizations.
Tune deployment pipelines to improve throughput and latency.
Format of the Course
Interactive lecture and discussion.
Hands-on use of profiling and optimization tools on each platform.
Guided exercises focused on practical tuning scenarios.
Course Customization Options
To request a customized training for this course based on your performance environment or model type, please contact us to arrange.
Chinese GPU architectures such as Huawei Ascend, Biren, and Cambricon MLUs offer CUDA alternatives tailored for local AI and HPC markets.
This instructor-led, live training (online or onsite) is aimed at advanced-level GPU programmers and infrastructure specialists who wish to migrate and optimize existing CUDA applications for deployment on Chinese hardware platforms.
By the end of this training, participants will be able to:
Evaluate compatibility of existing CUDA workloads with Chinese chip alternatives.
Port CUDA codebases to Huawei CANN, Biren SDK, and Cambricon BANGPy environments.
Compare performance and identify optimization points across platforms.
Address practical challenges in cross-architecture support and deployment.
Format of the Course
Interactive lecture and discussion.
Hands-on code translation and performance comparison labs.
Guided exercises focused on multi-GPU adaptation strategies.
Course Customization Options
To request a customized training for this course based on your platform or CUDA project, please contact us to arrange.
Cette formation en direct avec instructeur en British Columbia (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser CUDA pour programmer les NVIDIA GPU et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant CUDA Toolkit, un NVIDIA GPU et un code Visual Studio.
Créer un programme CUDA de base qui effectue une addition vectorielle sur le GPU et récupère les résultats dans la mémoire du GPU.
Utiliser l'API CUDA pour demander des informations sur les périphériques, allouer et désallouer la mémoire des périphériques, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser le langage CUDA C/C++ pour écrire des noyaux qui s'exécutent sur la mémoire GPU et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques CUDA pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire CUDA, tels que les espaces globaux, partagés, constants et locaux, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser le modèle d'exécution CUDA pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes CUDA à l'aide d'outils tels que CUDA-GDB, CUDA-MEMCHECK et NVIDIA Nsight.
Optimiser les programmes CUDA à l'aide de techniques telles que le coalescing, la mise en cache, le prefetching et le profilage.
Huawei Ascend est une famille de processeurs IA conçus pour l'inférence et la formation à haute performance.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal en utilisant la plateforme Ascend de Huawei et l'outil CANN.
À la fin de cette formation, les participants seront capables de :
Configurer l'environnement de développement CANN.
Développer des applications IA à l'aide de MindSpore et des workflows CloudMatrix.
Optimiser les performances sur les NPUs Ascend en utilisant des opérateurs personnalisés et le tiling.
Déployer des modèles dans des environnements edge ou cloud.
Format de la formation
Cours interactif et discussion.
Utilisation pratique de Huawei Ascend et de l'outil CANN dans des applications d'exemple.
Exercices guidés axés sur la construction, la formation et le déploiement du modèle.
Options de personnalisation de la formation
Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
Les accélérateurs Biren AI sont des GPU de haute performance conçus pour les charges de travail en IA et HPC, avec un support pour l'entraînement et l'inférence à grande échelle.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux développeurs intermédiaires à avancés qui souhaitent programmer et optimiser des applications en utilisant la pile GPU propriétaire de Biren, avec des comparaisons pratiques avec les environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
Mettre en place l'environnement de développement et utiliser le modèle de programmation Biren.
Traduire et optimiser des codes au style CUDA pour les plateformes Biren.
Appliquer des techniques d'ajustement de performance et de débogage.
Format du cours
Cours interactif et discussion.
Utilisation pratique de la SDK Biren dans des charges de travail GPU d'exemple.
Exercices guidés axés sur le portage et l'ajustement de performance.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours basée sur votre pile d'applications ou vos besoins d'intégration, veuillez nous contacter pour en faire la demande.
Cambricon MLUs (Machine Learning Units) are specialized AI chips optimized for inference and training in edge and datacenter scenarios.
This instructor-led, live training (online or onsite) is aimed at intermediate-level developers who wish to build and deploy AI models using the BANGPy framework and Neuware SDK on Cambricon MLU hardware.
By the end of this training, participants will be able to:
Set up and configure the BANGPy and Neuware development environments.
Develop and optimize Python- and C++-based models for Cambricon MLUs.
Deploy models to edge and data center devices running Neuware runtime.
Integrate ML workflows with MLU-specific acceleration features.
Format of the Course
Interactive lecture and discussion.
Hands-on use of BANGPy and Neuware for development and deployment.
Guided exercises focused on optimization, integration, and testing.
Course Customization Options
To request a customized training for this course based on your Cambricon device model or use case, please contact us to arrange.
Cette formation en direct avec instructeur à British Columbia (en ligne ou sur site) s'adresse aux administrateurs système débutants et aux professionnels de l'informatique qui souhaitent installer, configurer, gérer et dépanner les environnements CUDA.
A l'issue de cette formation, les participants seront capables de :
Comprendre l'architecture, les composants et les capacités de CUDA.
Installer et configurer les environnements CUDA.
Gérer et optimiser les ressources CUDA.
Déboguer et résoudre les problèmes CUDA les plus courants.
Cette formation en direct dans British Columbia (en ligne ou sur site) est destinée aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser OpenCL pour programmer des dispositifs hétérogènes et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Mettre en place un environnement de développement comprenant le SDK OpenCL, un appareil supportant le OpenCL et le code Visual Studio.
Créer un programme OpenCL de base qui effectue une addition vectorielle sur l'appareil et récupère les résultats de la mémoire de l'appareil.
Utiliser l'API OpenCL pour demander des informations sur le périphérique, créer des contextes, des files d'attente de commandes, des tampons, des noyaux et des événements.
Utiliser le langage C OpenCL pour écrire des noyaux qui s'exécutent sur le périphérique et manipulent des données.
Utiliser les fonctions intégrées, les extensions et les bibliothèques OpenCL pour effectuer des tâches et des opérations courantes.
Utiliser les modèles de mémoire de l'hôte et de l'appareil pour optimiser les transferts de données et les accès à la mémoire.
Utiliser le modèle d'exécution OpenCL pour contrôler les éléments de travail, les groupes de travail et les plages ND.
Déboguer et tester les programmes OpenCL à l'aide d'outils tels que CodeXL, Intel VTune et NVIDIA Nsight.
Optimiser les programmes OpenCL en utilisant des techniques telles que la vectorisation, le déroulement des boucles, la mémoire locale et le profilage.
Cette formation dispensée par un instructeur en direct à British Columbia (en ligne ou sur site) s'adresse aux développeurs de niveau intermédiaire qui souhaitent utiliser CUDA pour créer des applications Python qui s'exécutent en parallèle sur les NVIDIA GPU.
A l'issue de cette formation, les participants seront capables de :
Utiliser le compilateur Numba pour accélérer les applications Python s'exécutant sur les GPU NVIDIA GPU.
Créer, compiler et lancer des kernels CUDA personnalisés.
Gérer la mémoire des GPU GPU.
Convertir une application basée sur le CPU en une application accélérée par les GPU GPU.
Cette formation en direct, dirigée par un instructeur, couvre la programmation de GPUs pour le calcul parallèle, l'utilisation de diverses plateformes, le travail avec la plateforme CUDA et ses fonctionnalités, et l'exécution de diverses techniques d'optimisation à l'aide de CUDA. Les applications comprennent l'apprentissage profond, l'analyse, le traitement d'images et les applications d'ingénierie.
En savoir plus...
Dernière Mise À Jour:
Nos clients témoignent (2)
Très interactif avec des exemples variés, avec une bonne progression de la complexité entre le début et la fin de la formation.
Jenny - Andheo
Formation - GPU Programming with CUDA and Python
Traduction automatique
L'énergie et l'humour des formateurs.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Graphics Processing Unit formation à British Columbia, Weekend Graphics Processing Unit cours à British Columbia, Soir GPU formation à British Columbia, Graphics Processing Unit (GPU) formateur en ligne à British Columbia, Graphics Processing Unit (GPU) formation à British Columbia, GPU (Graphics Processing Unit) cours du soir à British Columbia, GPU (Graphics Processing Unit) formation Intra à British Columbia, GPU formation Intra Entreprise à British Columbia, GPU formation Inter à British Columbia, Graphics Processing Unit (GPU) formation Inter Entreprise à British Columbia, Graphics Processing Unit (GPU) coach à British Columbia, Graphics Processing Unit coaching à British Columbia, Graphics Processing Unit cours particuliers à British Columbia, GPU instructeur à British Columbia, Graphics Processing Unit cours privé à British Columbia, GPU (Graphics Processing Unit) entraînement à British Columbia, Graphics Processing Unit stage de préparation à British Columbia, Soir GPU cours à British Columbia, GPU formateur à British Columbia, GPU sur place à British Columbia, Graphics Processing Unit (GPU) préparation aux examens à British Columbia, Graphics Processing Unit préparation à British Columbia, Weekend Graphics Processing Unit (GPU) formation à British Columbia, Graphics Processing Unit (GPU) professeur à British Columbia,Graphics Processing Unit cours à British Columbia