Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.        
        
        
            Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.        
    Plan du cours
- Aperçu des réseaux neuronaux et de l'apprentissage profond
	- Le concept d'Apprentissage Automatique (ML)
- Pourquoi avons-nous besoin de réseaux neuronaux et d'apprentissage profond ?
- Sélection des réseaux pour différents problèmes et types de données
- Apprentissage et validation des réseaux neuronaux
- Comparaison entre la régression logistique et les réseaux neuronaux
 
- Réseau neuronal
	- Inspirations biologiques pour le réseau neuronal
- Réseaux Neuronaux – Neuron, Perceptron et MLP (Modèle Multicouche de Perceptrons)
- Apprentissage du MLP – algorithme de rétropropagation
- Fonctions d'activation – linéaire, sigmoïde, Tanh, Softmax
- Fonctions de perte appropriées à la prévision et à la classification
- Paramètres – taux d'apprentissage, régularisation, momentum
- Construction de réseaux neuronaux en Python
- Évaluation des performances des réseaux neuronaux en Python
 
- Bases des Réseaux Profonds
	- Qu'est-ce que l'apprentissage profond ?
- Architecture des Réseaux Profonds – Paramètres, Couches, Fonctions d'activation, Fonctions de perte, Solveurs
- Machines de Boltzmann restreintes (RBMs)
- Autoencodeurs
 
- Architectures des Réseaux Profonds
	- Réseaux de Croyance Profonde (DBN) – architecture, application
- Autoencodeurs
- Machines de Boltzmann restreintes
- Réseaux Neuronaux Convolutifs
- Réseaux Neuronaux Récursifs
- Réseaux Neuronaux Récurrents
 
- Aperçu des bibliothèques et interfaces disponibles en Python
	- Caffee
- Theano
- Tensorflow
- Keras
- Mxnet
- Choix de la bibliothèque appropriée au problème
 
- Construction de réseaux profonds en Python
	- Choix de l'architecture appropriée au problème donné
- Réseaux profonds hybrides
- Apprentissage du réseau – bibliothèque appropriée, définition de l'architecture
- Ajustement du réseau – initialisation, fonctions d'activation, fonctions de perte, méthode d'optimisation
- Éviter le surapprentissage – détection des problèmes de surapprentissage dans les réseaux profonds, régularisation
- Évaluation des réseaux profonds
 
- Études de cas en Python
	- Reconnaissance d'images – CNN
- Détection d'anomalies avec des Autoencodeurs
- Prévision de séries temporelles avec RNN
- Réduction de dimensionnalité avec un Autoencodeur
- Classification avec RBM
 
Pré requis
Une connaissance ou une appréciation de l'apprentissage automatique, de l'architecture des systèmes et des langages de programmation est souhaitable.
             14 Heures
        
        
Nos clients témoignent (2)
Organisation, conformément à l'ordre du jour proposé, les connaissances approfondies du formateur dans ce sujet
Ali Kattan - TWPI
Formation - Natural Language Processing with TensorFlow
Traduction automatique
Very updated approach or CPI (tensor flow, era, learn) to do machine learning.
Paul Lee
Formation - TensorFlow for Image Recognition
Traduction automatique
 
                    