Plan du cours

Introduction à la fusion de données multi-capteurs

  • Importance de la fusion de données dans la navigation autonome
  • Défis de l’intégration multi-capteurs
  • Applications de la fusion de données dans la perception en temps réel

Technologies de capteurs et caractéristiques des données

  • LiDAR : génération et traitement de nuages de points
  • Caméra : capture de données visuelles et traitement d’images
  • RADAR : détection d’objets et estimation de la vitesse
  • Unités de mesure inertielles (IMU) : suivi du mouvement

Principes fondamentaux de la fusion de données

  • MathematicaBases théoriques : filtres de Kalman, inférence bayésienne
  • Techniques d’association et d’alignement des données
  • Gestion du bruit et de l’incertitude des capteurs

Algorithmes de fusion pour la navigation autonome

  • Filtre de Kalman et filtre de Kalman étendu (EKF)
  • Filtre de particules pour les systèmes non linéaires
  • Filtre de Kalman non parfumé (UKF) pour les dynamiques complexes
  • Association de données utilisant le plus proche voisin et l’association probabiliste conjointe des données (JPDA)

Implémentation pratique Sensor Fusion

  • Intégration des données LiDAR et caméra pour la détection d’objets
  • Fusion des données RADAR et caméra pour l’estimation de la vitesse
  • Combinaison des données GPS et IMU pour une localisation précise

Traitement et synchronisation des données en temps réel

  • Méthodes d’horodatage et de synchronisation des données
  • Gestion de la latence et optimisation des performances en temps réel
  • Gestion des données provenant de capteurs asynchrones

Techniques avancées et défis

  • Approches d’apprentissage profond pour la fusion de données
  • Intégration de données multi-modales et extraction de caractéristiques
  • Gestion des défaillances des capteurs et des données dégradées

Évaluation et optimisation des performances

  • Indicateurs quantitatifs d’évaluation de la précision de la fusion
  • Analyse des performances dans différentes conditions environnementales
  • Amélioration de la robustesse et de la tolérance aux pannes du système

Études de cas et applications réelles

  • Techniques de fusion dans les prototypes de véhicules autonomes
  • Déploiement réussi d’algorithmes de fusion de capteurs
  • Atelier : implémentation d’un pipeline de fusion multi-capteurs

Résumé et prochaines étapes

Pré requis

  • Expérience en programmation Python
  • Connaissance des technologies de base des capteurs (par exemple, LiDAR, caméras, RADAR)
  • Familiarité avec ROS et le traitement des données

Public cible

  • Spécialistes de la fusion de capteurs travaillant sur des systèmes de navigation autonomes
  • Ingénieurs en IA axés sur l'intégration multi-capteurs et le traitement des données
  • Chercheurs dans le domaine de la perception des véhicules autonomes
 21 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires