Fantom Tag

Formation - Mise en oeuvre du Deep Learning

Au-delà du Machine Learning, le Deep Learning

  • Présentiel ou classe à distance
  • Perfectionnement
PRESENTIEL OU CLASSE A DISTANCE
Durée
3 jours (21 heures)

Prix 2024
2 170,00 €  HT

Référence
BI107
S'inscrire
Dans vos locaux ou à distance
Durée
3 jours (21 heures)

Forfait intra - En savoir plus
7 420,00€ HT
Prix pour un groupe de 12 personnes max

Référence
BI107
Formation à la demande
Cette thématique vous intéresse ?
Nos experts conçoivent votre formation
sur-mesure !
L’apprentissage profond, ou Deep learning, est à la base de la révolution en cours autour de l’Intelligence Artificielle. Il devient crucial pour les entreprises et les organisations d’en comprendre ses mécanismes fondateurs ainsi que ses bonnes pratiques de mise en oeuvre. Les objectifs de cette formation visent d’abord à maitriser les briques de base du deep learning (réseaux de neurones simples, convolutifs ou récursifs), d’ensuite comprendre et appréhender des modèles plus avancés (auto encodeurs, modèles génératifs, transformers), d’aborder les mécanismes d’apprentissage neuronaux par renforcement, pour enfin pouvoir décoder plus aisément les architectures récentes des modèles massifs type ChatGPT ou Dall-e. Les participants pourront, sur la base des apports théoriques et pratiques délivrés lors de la formation, mettre en oeuvre concrètement ces connaissances lors d’ateliers qui jalonneront leur parcours.
Consulter le programme 2025
Lire la suite
Pour qui ?

A qui s'adresse cette formation ?

Pour qui

  • Ingénieurs, analystes, responsables marketing
  • Data Analysts, Data Scientists, Data Steward
  • Toute personne intéressée par les spécificités du Deep Learning

Prérequis

Programme

Le programme

1 - Introduction

  • L'avènement du Deep Learning
  • Deep Learning Time line
  • Que peuvent apprendre les machines ?

2 - Réseaux de neurones simples (NNs)

  • Le Perceptron
  • Le Perceptron multi-couches
  • L'entrainement d'un Perceptron
  • Principe de back propagation
  • Les optimiseurs du Deep Learning
  • La régularisation des réseaux de neurones
  • Techniques de réglages des NN
  • Lab : mise en oeuvre d'un Perceptron Multi-couches
  • Lab : mise en oeuvre d'un Perceptron Multi-couches

3 - Réseaux de neurones convolutifs (convolutional neural networks - CNNs)

  • Pourquoi ce type de réseaux
  • Principe de fonctionnement des CNNs
  • Les champs de réceptions locaux
  • Les poids partagés
  • Convolution - notion de Padding
  • Convolution - Principe du calcul
  • Les couches de sous-échantillonnage (pooling)
  • Les CNNs très profonds (DCNNs)
  • Modèles CNNs - Concours ImageNet
  • Architectures DCNNs
  • Mécanisme d'Inception (Google)
  • L'apprentissage par transfert (Transfer Learning)
  • La promesse des réseaux de Capsules
  • Lab : mise en pratique

    Mise en oeuvre de réseaux de neurones convolutifs pour la reconnaissance d'objets simples

    Développement d'un modèle profond par transfer learning et application à la reconnaissance fine d'objets

4 - Réseaux de neurones auto-encodeurs et variationnels (AEs et VAEs)

  • Auto-encodeurs génériques : Principes de fonctionnement ; Choix des fonctions d'encodage/décodage ; L'opération de "déconvolution" ; Usages des auto-encodeurs et modes d'apprentissage
  • Auto-encodeurs variationnels (variational autoencoders ) : Pourquoi les VAEs ; Principes de fonctionnement ; Modèle d'inférence variationnelle ; Fonction de perte des VAEs ; Optimisation : astuce du re-paramétrage ; Exemple de mise en oeuvre d'un VAE ; Différentes variantes courantes des VAEs
  • Lab : Mise en pratique

    Développement et application d'auto-encodeurs au débruitage et à la génération de variations naturelles de données

5 - Réseaux antagonistes génératifs (generative adversial networks - GANs)

  • L’exemple des Deep Fake Faces
  • Taxonomie des modèles génératifs
  • Publication fondatrice des GANs
  • Les GANs, des réseaux en coopétition
  • Modèles générateurs et discriminants
  • Intérêts des GANs
  • Problématiques classiques des GANs
  • Taxonomies des GANs
  • Principes de fonctionnement des GANs standards
  • Principes d’entraînement
  • Approche formelle de l’entraînement
  • Les GANS convolutionnels profonds type DCGANs
  • Focus sur des GANs de référence plus avancés
  • L’apprentissage progressif type PROGANS
  • L’apprentissage conditionnel type CGANS
  • La captation de traits distants type SAGANS
  • L’apprentissage cyclique type CYCLEGANS
  • Le transfert de style type STYLEGANS
  • Synthèse modèles GANS
  • Lab : Mise en pratique

    Mise en oeuvre de GANs convolutionnels profond (DCGANs) sur cas concrets

    StyleGAN appliqué à la génération d’images fines à hautes résolution

6 - Réseaux de neurones séquentiels (RNNs, Transformers, etc.)

  • Introduction
  • Les réseaux neuronaux récursifs simples
  • Les différentes topologies des RNNs
  • L’évanescence et l’explosion des gradients
  • La variante LSTM des RNNs
  • Autre variante : GRULes RNNs bidirectionnels
  • Le Traitement de très longues séquences
  • L’approche pure convolutive du modèle Wavenet
  • Les approches encodeur - décodeur
  • Les réseaux SequenceToSequence simples (seq2sec)
  • L’entraînement d’un réseau seq2seq
  • L’inférence d’un réseau seq2sec
  • Le mécanisme “Attention”
  • Un scoring de correspondance entre éléments
  • Attention : Alignement dynamique des poids
  • Attention : calcul de la fonction d’alignement
  • L’architecture disruptive des Transformers
  • L’approche Key, Value et Query
  • Illustration du calcul d’alignement
  • Un mécanisme Multi-têtes d’attention
  • Qu’apporte un mécanisme Self-Attention
  • Architecture complète des Transformers
  • Hyperparamètres clés des Transformers
  • Lab : Mise en pratique

    Construction d’un Agent Conversationnel (en français) avec un modèle Transformer

7 - Réseaux de neurones profonds auto-apprenants

  • L'apprentissage profond par renforcement (deep reinforcement learning - DRL) : Principes de fonctionnement ; Cadre Markovien ; Notions de valeur d'état et de politique ; Processus de décision Markovien (MDP) ; Résolution par différents apprentissages ; Taxonomies des algorithmes RL
  • Algorithmes profonds basés sur la valeur : Principe d'optimalité de Bellman ; La valeur d'action Q ; Apprentissage profond de la valeur d'action Q ; Principes du fonctionnement des DQN (deep Q network) ; Approche par exploration - exploitation ; La relecture d'expérience (experience replay) ; Principe d'entraînement du réseau Q ; Variante DDQN
  • Algorithmes profonds basés sur la valeur : Méthodes types Gradient de la politique ; Approche REINFORCE : principes et formalisme ; Modélisation de la politique ; Théorème du Gradient de la Politique ; Algorithme REINFORCE
  • Algorithmes mixtes : Variante REINFORCE avec base de référence ; Autres variantes : ACTOR-CRITIC, A2C ; ALFAGO et évolutions
  • Lab : Mise en pratique

    Mise en oeuvre de plusieurs réseaux d'apprentissage par renforcement sur cas concrets

Evaluation

  • Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Objectifs

Les objectifs de la formation

  • Pouvoir maîtriser les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Être capable de comprendre et d'appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Connaître les différents modes de déploiement de ces modèles
Points forts

Les points forts de la formation

  • Une pédagogie basée sur l'alternance de phases théoriques, d'ateliers de mise en pratique, de retours d'expériences et de séances d'échanges.
  • Les ateliers pratiques réalisés sur Python mais également en partie en R viennent compléter les phases de cours théoriques.
  • Le partage de bonnes pratiques de la part de consultants experts en Intelligence Artificielle.
  • 100% des participants à cette formation se sont déclarés satisfaits ou très satisfaits au cours des 12 derniers mois.

Qualité des formations

ib Cegos est certifié Iso 9001 et Qualiopi.

Sessions

Mise à jour le 04/11/2024
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Nancy
    IBIS Style Nancy 8 allée de la Genelière
    54180 Houdemont
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Tours
    IBIS Style Tours Centre 4 place de la liberté
    37000 Tours
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Toulouse
    Immeuble TEA / Innoparc A 41 Rue de la Découverte, CS 37621
    31675 Labège Cedex
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Strasbourg
    Immeuble l'Avancée 26C, Bd du Président Wilson
    67000 Strasbourg
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Sophia Antipolis
    400 avenue Roumanille BP309 - Sophia Antipolis
    06410 Biot
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Rouen
    Parc d'Activités Technologiques de la Vatine / Bâtiment Red Cow - 2ème étage 2 ter rue Georges Charpak
    76130 Mont St Aignan
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Rennes
    ZAC de Saint Sulpice / Immeuble Osiris II 12J, rue du Patis Tatelin
    35000 Rennes
  • 2 170,00 € HT
    Places disponibles
    Session garantie
    S'inscrire
    Paris
    Tour Atlantique / 1 place de la Pyramide La Défense 9
    92800 Puteaux
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Nantes
    Immeuble Atalante 2 / Zac du Moulin Neuf 2, impasse Augustin Fresnel
    44800 St Herblain
  • 2 170,00 € HT
    Places disponibles
    Session garantie
    S'inscrire
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Montpellier
    Espace Entreprise GAROSUD 48 rue Claude Balbastre
    34070 Montpellier
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Marseille
    World Trade Center 2 rue Henri Barbusse
    13241 Marseille
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Lyon
    Le 6ème Sens 186, avenue Thiers
    69465 Lyon Cedex 06
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Lille
    Immeuble Le Corbusier 19, avenue Le Corbusier
    59000 Lille
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Grenoble
    Novotel Grenoble Centre 5-7 Place Robert Schuman
    38000 Grenoble
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Bordeaux
    9 rue de Condé
    33000 Bordeaux
  • 2 170,00 € HT
    Places disponibles
    S'inscrire
    Aix en Provence
    Pôle d'activités d'Aix-en-Provence / Espace Cezanne 2ème étage 135, rue André Ampère
    13290 Aix-en-Provence
Consulter les dates 2025
Formation - Mise en oeuvre du Deep Learning