formation-continue

Deep Learning : les fondamentaux (DS020)

La formation Deep Learning : les fondamentaux vous permettra de :
- Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)
- Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
- Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
- Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
- Comprendre les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils.
 

Diplôme
Certificat ESIEE-IT
Durée
3 jours (soit 21 heures)
Coût
2190 €
Campus
Paris 9ème ou à distance

Deep Learning : les fondamentaux

  • Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)
  • Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Comprendre les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils.

Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)

  • Définitions et positionnement IA, deep learning et Machine Learning
  • Les apports du deep learning, état de l'art.
  • Outils disponibles. Exemple de projets.
  • Exemples, domaines d'application. Présentation de deepmind
  • Outils DeepLearning de haut niveau : Keras/TensorFlow, Caffe/PyTorch, Lasagne.
  • Atelier : Mise en œuvre sur cloud AutoML : langages naturels, traduction, reconnaissance d'images, ...

Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones

  • Prévisions à partir de données réelles. Mesure de l'efficacité des algorithmes. Courbes ROC.
  • Fonctionnement d'un réseau de neurones. Comprendre le fonctionnement de l'apprentissage d'un réseau de neurones.
  • Comprendre la rétro-propagation de l'erreur et la convergence.
  • Comprendre la descente de gradient. Les fonctions d'erreur : MSE, BinaryCrossentropy, et les optimiseurs SGD, RMSprop, Adam.
  • Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum.
  • Optimiser un entraînement par découpage d'entraînements peu profonds.
  • Comprendre le principe des hyper-paramètres. Choix des hyper-paramètres.
  • Atelier : construire un réseau capable de reconnaître une courbe.

Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs

  • Les réseaux de neurones : principe, différents types de réseaux de neurones (artificiels, convolutifs, récurrents...)
  • Les différentes formes de réseaux : MultiLayer Perceptron FNN/MLP, CNN.
  • Couches d'entrée, de sortie, de calcul.
  • Fonctionnement d'une couche de convolution. Définitions : kernel, padding, stride. Fonctionnement d'une couche de Pooling.
  • APIs standard, modèles d'apprentissage
  • Apprendre à lire une courbe d'apprentissage.
  • Atelier : Comparaison de courbes d'apprentissage avec TensorFlow sur plusieurs paramètres.
  • Les modèles de DeepLearning pour Keras : Xception, Inception, ResNet, VGG, LeNet.
  • Atelier : Construction d'un réseau de neurones de reconnaissance d'images

Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement

  • Représentations des données. Bruits. Couches d'encodage : codage entier, One-hot, embedding layer. Notion d'autoencodeur.
  • Autoencodeurs empilés, convolutifs, récurrents.
  • Comprendre les réseaux antagonistes génératifs (GANS) et leur limites de convergences. Apprentissage par transfert.
  • Comment optimiser les récompenses?
  • Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
  • Traitement NLP : encodage des caractères et des mots, traduction.
  • Atelier : entraînement d'un autoencodeur variationnel sur un jeu d'images

Comprendre les méthodologies de mise en place de réseaux de neurones

  • Préparation des données, régularisation, normalisation, extraction des caractéristiques.
  • Optimisation de la politique d'apprentissage.
  • Exploitation des modèles, mise en production. TensorFlow Hub. Serving.
  • Visualiser les reconstructions.
  • Atelier : mise en place d'un serveur de modèles et d'une application tf-lite

Comprendre les points forts et les limites de ces outils

  • Mise en évidence des problèmes de convergence et du vanishing gradient.
  • Les erreurs d'architecture. Comment distribuer un réseau de neurones.
  • Les limites du DeepLearning : imiter/créer. Cas concrets d'utilisation.
  • Introduction aux machines quantiques.
     

À qui s’adresse cette formation ?

Toute personne intéressée par le Deep Learning et les réseaux de neurones : Ingénieurs, Analystes, Data Scientists, Data Analysts, Data Scientists, Data Steward, Développeurs.
 

Quels sont les prérequis ? 

Avoir une culture informatique générale. Posséder des notions de probabilités et statistiques est recommandé. 
 

Méthodes pédagogiques 

  • Apports théoriques suivis d’applications 
  • Travaux pratiques réalisés 
     

Méthodes d'évaluations

  • QCM d'évaluation des acquis

  • À l’issue de cette formation, un certificat ESIEE-IT vous sera délivré.

Pour vous inscrire, envoyez un mail à formationcontinue@esiee-it.fr  (réponses sous 48heures). 

Informations complémentaires

Texte

Prochaines sessions : 

  • Du 12 au 14 juin 2023
  • Du 20 au 22 septembre 2023
  • Du 22 au 24 novembre 2023
  • Horaires : 9h00 à 17h30
  • Taux de réussite : nouvelle formation 
  • 100% à distance (D) ou en présentiel (P)
  • Si vous êtes en situation de handicap, retrouvez toutes les informations utiles  ICI

 

Contactez-nous