Plan du cours

Introduction à l'architecture Biren GPU

  • Aperçu de Biren et cas d'utilisation
  • Déploiement matériel : cœurs, mémoire, grappes de calcul
  • Comparaison avec NVIDIA et AMD GPU

Mise en place de l'environnement Biren Programming

  • Installation du SDK Biren et du runtime
  • Compréhension de la chaîne d'outils et du modèle compilateur
  • Structure de projet de base et processus de construction

GPU Programming avec la pile Biren

  • Modèles de thread et de blocs
  • Gestion de la mémoire et transferts de données
  • Développement et lancement des noyaux

Portage de CUDA vers Biren

  • Techniques de traduction pour le code CUDA
  • Mappages API courants et adaptations
  • Laboratoires de conversion de code et pratique

Débogage et profilage

  • Utilisation du débogueur et du profileur Biren
  • Identification des goulets d'étranglement
  • Modèles d'accès à la mémoire et optimisation

Téchniques d'optimisation

  • Planification de thread et pipeline d'instructions
  • Déroulage de boucle et utilisation de la mémoire partagée
  • Ajustement avancé des noyaux pour le débit

Cas pratique et exemples d'applications

  • Formation d'un modèle avec les accélérateurs Biren
  • Portage et profilage d'un modèle de vision ou NLP
  • Comparaison des performances vs CUDA/NVIDIA

Résumé et prochaines étapes

Pré requis

  • Une compréhension de l'architecture GPU et du traitement parallèle
  • Expérience avec CUDA, OpenCL, ou des environnements de programmation similaires GPU
  • Familiarité avec les cadres d'apprentissage profond tels que PyTorch ou TensorFlow

Public cible

  • Développeurs HPC
  • Ingénieurs de l'infrastructure IA
  • Spécialistes de l'optimisation des performances
 21 Heures

Nombre de participants


Prix ​​par Participant

Nos clients témoignent (1)

Cours à venir

Catégories Similaires