Formation Migrating CUDA Applications to Chinese GPU Architectures
Les architectures chinoises GPU telles que Huawei Ascend, Biren et Cambricon MLUs offrent des alternatives à CUDA adaptées aux marchés locaux de l'IA et du calcul haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux programmeurs avancés GPU et aux spécialistes d'infrastructure qui souhaitent migrer et optimiser des applications CUDA existantes pour leur déploiement sur des plateformes matérielles chinoises.
À la fin de cette formation, les participants seront capables de :
- Évaluer la compatibilité des charges de travail CUDA existantes avec les alternatives à base de puces chinoises.
- Migrer des bases de code CUDA vers Huawei CANN, Biren SDK et environnements Cambricon BANGPy.
- Comparer les performances et identifier les points d'optimisation sur différents plateformes.
- Aborder les défis pratiques du support inter-architecture et du déploiement.
Format de la formation
- Cours interactif et discussion.
- Laboratoires pratiques de traduction de code et de comparaison des performances.
- Exercices guidés axés sur les stratégies d'adaptation multi-GPU.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre plateforme ou projet CUDA, veuillez nous contacter pour organiser cela.
Plan du cours
Aperçu de l'écosystème AI GPU chinois
- Comparaison entre Huawei Ascend, Biren et Cambricon MLU
- CUDA vs CANN, SDK Biren et modèles BANGPy
- Tendances industrielles et écosystèmes de fournisseurs
Préparation à la migration
- Évaluation de votre codebase CUDA
- Identification des plateformes cibles et des versions SDK
- Installation de la chaîne d'outils et configuration de l'environnement
Techniques de traduction du code
- Migration de l'accès à la mémoire CUDA et de la logique noyau
- Coincidence des modèles grille/fil d'exécution
- Options de traduction automatique vs manuelle
Implémentations spécifiques aux plateformes
- Utilisation des opérateurs Huawei CANN et noyaux personnalisés
- Pipeline de conversion SDK Biren
- Reconstruction des modèles avec BANGPy (Cambricon)
Tests et optimisations multi-plateformes
- Profiling d'exécution sur chaque plateforme cible
- Ajustement de la mémoire et comparaisons d'exécutions parallèles
- Suivi des performances et itérations
Gestion des environnements mixtes GPU
- Déploiements hybrides avec plusieurs architectures
- Stratégies de repli et détection du matériel
- Niveaux d'abstraction pour la maintenabilité du code
Cas pratiques et bonnes pratiques
- Migration des modèles vision/NLP vers Ascend ou Cambricon
- Adaptation des pipelines de déduction sur les clusters Biren
- Gestion des incompatibilités de versions et lacunes d'API
Récapitulation et prochaines étapes
Pré requis
- Expérience en programmation avec CUDA ou des applications basées sur GPU
- Compréhension des modèles de mémoire et des noyaux de calcul GPU
- Familiarité avec les workflows de déploiement ou d'accélération de modèles AI
Public cible
- Programmateurs GPU
- Architectes système
- Spécialistes du portage
Les formations ouvertes requièrent plus de 3 participants.
Formation Migrating CUDA Applications to Chinese GPU Architectures - Booking
Formation Migrating CUDA Applications to Chinese GPU Architectures - Enquiry
Migrating CUDA Applications to Chinese GPU Architectures - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
Developing AI Applications with Huawei Ascend and CANN
21 HeuresHuawei Ascend est une famille de processeurs IA conçus pour l'inférence et la formation à haute performance.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal en utilisant la plateforme Ascend de Huawei et l'outil CANN.
À la fin de cette formation, les participants seront capables de :
- Configurer l'environnement de développement CANN.
- Développer des applications IA à l'aide de MindSpore et des workflows CloudMatrix.
- Optimiser les performances sur les NPUs Ascend en utilisant des opérateurs personnalisés et le tiling.
- Déployer des modèles dans des environnements edge ou cloud.
Format de la formation
- Cours interactif et discussion.
- Utilisation pratique de Huawei Ascend et de l'outil CANN dans des applications d'exemple.
- Exercices guidés axés sur la construction, la formation et le déploiement du modèle.
Options de personnalisation de la formation
- Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
Deploying AI Models with CANN and Ascend AI Processors
14 HeuresCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 HeuresCloudMatrix est la plateforme unifiée de développement et déploiement IA de Huawei conçue pour prendre en charge des pipelines d'inférence évolutifs et de production.
Cette formation en direct (en ligne ou sur site) animée par un instructeur s'adresse aux professionnels de l'IA débutants à intermédiaires qui souhaitent déployer et surveiller des modèles IA en utilisant la plateforme CloudMatrix avec une intégration CANN et MindSpore.
À la fin de cette formation, les participants seront capables de :
- Utiliser CloudMatrix pour l'emballage, le déploiement et le service des modèles.
- Convertir et optimiser des modèles pour les puces Ascend.
- Mettre en place des pipelines pour des tâches d'inférence en temps réel et par lots.
- Surveiller les déploiements et ajuster les performances dans un environnement de production.
Format du cours
- Cours interactif et discussion.
- Utilisation pratique de CloudMatrix avec des scénarios de déploiement réels.
- Exercices guidés axés sur la conversion, l'optimisation et l'échelle.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre infrastructure IA ou environnement cloud, veuillez nous contacter pour en faire la demande.
GPU Programming on Biren AI Accelerators
21 HeuresLes accélérateurs Biren AI sont des GPU de haute performance conçus pour les charges de travail en IA et HPC, avec un support pour l'entraînement et l'inférence à grande échelle.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux développeurs intermédiaires à avancés qui souhaitent programmer et optimiser des applications en utilisant la pile GPU propriétaire de Biren, avec des comparaisons pratiques avec les environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
- Mettre en place l'environnement de développement et utiliser le modèle de programmation Biren.
- Traduire et optimiser des codes au style CUDA pour les plateformes Biren.
- Appliquer des techniques d'ajustement de performance et de débogage.
Format du cours
- Cours interactif et discussion.
- Utilisation pratique de la SDK Biren dans des charges de travail GPU d'exemple.
- Exercices guidés axés sur le portage et l'ajustement de performance.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre pile d'applications ou vos besoins d'intégration, veuillez nous contacter pour en faire la demande.
Cambricon MLU Development with BANGPy and Neuware
21 HeuresLes Cambricon MLUs (Machine Learning Unités) sont des puces AI spécialisées optimisées pour l'inférence et la formation dans les scénarios de périphérie et de centre de données.
Cette formation en direct (en ligne ou sur site), animée par un formateur, s'adresse aux développeurs intermédiaires souhaitant construire et déployer des modèles AI à l'aide du cadre BANGPy et du SDK Neuware sur le matériel Cambricon MLU.
À la fin de cette formation, les participants seront capables de :
- Configurer et configurer les environnements de développement BANGPy et Neuware.
- Développer et optimiser des modèles basés sur Python et C++ pour Cambricon MLUs.
- Déployer des modèles vers des appareils de périphérie et de centre de données exécutant le runtime Neuware.
- Intégrer les flux de travail ML avec des fonctionnalités d'accélération spécifiques à MLU.
Format du cours
- Cours interactifs et discussions.
- Utilisation pratique de BANGPy et Neuware pour le développement et le déploiement.
- Exercices guidés axés sur l'optimisation, l'intégration et les tests.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre modèle d'appareil Cambricon ou votre cas d'utilisation, veuillez nous contacter pour organiser cela.
Introduction à Cambricon et à l'architecture MLU
- Aperçu de la gamme de puces AI de Cambricon
- Architecture MLU et pipeline d'instructions
- Types de modèles pris en charge et cas d'utilisation
Installation du chaînon de développement
- Installation de BANGPy et du SDK Neuware
- Configuration de l'environnement pour Python et C++
- Compatibilité des modèles et prétraitement
Développement de modèles avec BANGPy
- Gestion de la structure et de la forme du tenseur
- Construction du graphe de calcul
- Soutien aux opérations personnalisées dans BANGPy
Déploiement avec le runtime Neuware
- Conversion et chargement des modèles
- Contrôle d'exécution et d'inférence
- Pratiques de déploiement pour périphérie et centre de données
Optimisation des performances
- Mappage mémoire et réglage par couche
- Suivi d'exécution et profilage
- Bouchons courants et corrections
Intégration de MLU dans les applications
- Utilisation des API Neuware pour l'intégration d'applications
- Soutien au streaming et aux modèles multiples
- Scénarios d'inférence hybride CPU-MLU
Projet de bout en bout et Use Case
- Laboratoire : déploiement d'un modèle vision ou NLP
- Inférence périphérique avec intégration BANGPy
- Test de précision et de débit
Récapitulatif et prochaines étapes
- Compréhension des structures de modèles d'apprentissage automatique
- Expérience avec Python et/ou C++
- Familiarité avec les concepts de déploiement et d'accélération des modèles
Audience
- Développeurs AI embarqués
- Ingénieurs ML déployant sur périphérie ou centre de données
- Développeurs travaillant avec l'infrastructure AI chinoise
Récapitulatif et prochaines étapes
Introduction to CANN for AI Framework Developers
7 HeuresCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HeuresHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HeuresHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HeuresCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HeuresThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HeuresCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Performance Optimization on Ascend, Biren, and Cambricon
21 HeuresAscend, Biren et Cambricon sont des plateformes de matériel IA leaders en Chine, chacune offrant des outils uniques d'accélération et de profilage pour les charges de travail AI à l'échelle de production.
Cette formation en direct dirigée par un formateur (en ligne ou sur site) s'adresse aux ingénieurs高级AI基础设施和性能工程师,他们希望在多个中国AI芯片平台上优化模型推理和训练工作流。
到本培训结束时,参与者将能够:
- 在Ascend、Biren和Cambricon平台上对模型进行基准测试。
- 识别系统瓶颈和内存/计算低效问题。
- 应用图级、内核级和操作符级优化。
- 调整部署管道以提高吞吐量和减少延迟。
课程格式
- 互动讲座和讨论。
- 在每个平台上实际使用性能分析和优化工具。
- 专注于实用调优场景的指导练习。
课程定制选项
- 如需基于您的性能环境或模型类型对此课程进行定制培训,请联系我们安排。