New
 
Fantom Tag

Formation - IA Générative - Les modèles de langages massifs (LLMs)

Développer de nouvelles formes de contenus grâce aux LLM

  • Présentiel
Formation dans nos centres
Durée
2 jours (14 heures)

Prix
1 975,00 €  HT

Référence
BI108
Formation dans votre entreprise
Référence
BI108

Durée
2 jours (14 heures)

Forfait intra - En savoir plus
5 915,00€ HT
(Prix pour un groupe de 12 personnes max)
Formation à la demande
Cette thématique vous intéresse ?
Nos experts conçoivent votre formation
sur-mesure !
L'avènement des modèles de langages massifs, Large Language Models ou LLMs, tels ChatGPT, constitue une étape clé pour l'IA. Nous sommes au stade où des machines désormais peuvent appréhender une quantité extrême de contenu et d'en développer des formes nouvelles de services aujourd'hui efficients. Pour les entreprises et les organisation il s'agit de se positionner face à ces évolutions majeures en terme de création de valeur. Il devient dès lors nécessaire pour elles de : comprendre les mécanismes sous-jacents à ces modèles, savoir choisir le bon LLM, connaître les écosystèmes incontournables du domaine, de comprendre la personnalisation dans l’usage via le Prompt Engineering, de mieux cerner les capacités d’enrichissement de ces modèles (via des sources internes ou des outils), d’aborder sereinement les processus de réglage fin sur des cas d’usage précis et enfin d’identifier les problématiques de mise en oeuvre de tels modèles. A travers cette formation, les participants pourront appréhender, sur la base d'explications et d’ateliers sur cas concrets, chacune des composantes significatives de ces modèles disruptifs.
Lire la suite
Pour qui ?

A qui s'adresse cette formation ?

Pour qui

  • Chefs de projets
  • Développeurs
  • Data scientists

Prérequis

Programme

Le programme

1 - Introduction

  • Un changement de paradigme
  • Qu’est ce qui change ?
  • Une publication fondatrice
  • Une loi d’échelle pour les modèles de langage
  • Évolution temporelle des LLMs
  • De nouveaux écosystèmes
  • L’ère du Post Deep Learning
  • Personnalisation par Prompts
  • Personnalisation par enrichissement
  • Personnalisation par réglage fin

2 - Cas d'usage

  • Agents conversationnels et assistants virtuels
  • Génération de code et debuggage
  • Analyse de sentiments / opinions
  • Classification de texte et clusterisation
  • Synthèse de texte ou corpus
  • Traduction
  • Génération de contenu
  • Autres cas d'usages significatifs
  • LAB : Proof of concept sur cas concrets

3 - Fondations

  • Le traitement du langage naturel (TAL)
  • L’architecture disruptive des Transformers
  • La tokenisation des textes
  • L’encodeur d’un Transformer
  • La couche d’embedding
  • L’encodage de positionnement
  • Vecteur de positionnement
  • Le mécanisme d’attention multi-têtes
  • Points essentiels du mécanisme d’attention
  • La “spécialisation” des têtes d’attention
  • Calcul des scores d’attention
  • Addition et Normalisation des sorties
  • Le Décodeur d’un Tranformer
  • L’entraînement d’un Transformer
  • La couche d’auto-attention masquée
  • La couche d’attention du décodeur
  • Les couches supérieures du décodeur

4 - En pratique

  • Choisir un LLM
  • Critères de choix
  • Trois classes de modèles
  • Modèles à encodeur simple
  • Focus modèles BERTs
  • Modèles à décodeur simple
  • Focus modèles GPTs
  • Un foisonnement de modèles dérivés
  • La bataille des LLMs
  • La course vers des LLMs légers
  • L’exemple de LLaMa
  • Trois approches de réduction
  • Écosystèmes clés
  • APIs de modèles Fermés
  • HuggingFace et les modèles ouverts
  • Écosystèmes applicatifs type LangChain
  • LLMops et MLFlow
  • Atelier

    Prise en main des écosystèmes LLMs clés

5 - Mise en oeuvre

  • Choix service / in house / hybrid
  • In house workflow
  • Service workflow
  • Écosystèmes d'entraînement et d'inférence
  • L'entraînement d'un modèle massif
  • L'étape d'évaluation des modèles
  • Le réglage des hyperparamètres
  • Déploiement d'un modèle
  • Model fine-tuning
  • Prompt engineering
  • MLOps d'un LLMs
  • LAB : Environnement de déploiement d'un LLM

6 - Le Prompt Engineering

  • Configuration des paramètres des LLMs
  • Qu’est ce qu’un token ?
  • Notion de distribution des probabilités des LLMs
  • Les échantillonnages Top-K et top-p
  • La température du modèle
  • Le réglage des paramètres en pratique
  • Les composantes d’un prompt
  • Règles générales
  • L’approche Few-Shot Learning
  • Zero, one to Few-shot learning
  • L’approche Chain of thoughts
  • L’incitation par chaînes de pensées
  • Des approches plus avancées
  • ReAct Prompting
  • Méthode ReAct
  • Atelier

    Prompt Engineering sur cas concrets

7 - LLMs augmentés

  • Au delà du prompt, l’enrichissement des LLMs
  • Ajout de capacité mémorielle
  • Mémoire tampon (Buffer Memory)
  • Plusieurs mécanismes de mémorisation
  • Les mémoires de l’écosystème LangChain
  • Élargissement des connaissances
  • Retrieval Augmented Generation (RAG)
  • Le partitionnement des textes externes
  • Projection sémantique des documents (Embeddings)
  • Les bases de données vectorielles
  • Les algorithmes du search dans les bases vectorielles
  • Une galaxie d’outils possibles !
  • Atelier

    Mise en oeuvre d’un agent conversationnel

8 - Déploiement de LLMs

  • Quand le prompt engineering ne suffit plus
  • Qu’est ce que le réglage fin
  • Trois techniques classiques
  • Reinforcement learning by Human feedback (RLHF)
  • Détails d’un réglage fin Supervisé
  • Les trois options pour l’ajustement des paramètres
  • Les approches PEFT (Parameter Efficient Tuning)
  • La méthode LoRA (Low Rank Adaptation)
  • Une variante efficiente : QLoRA
  • Qu’est ce que la mise en service d’un LLM
  • Journaliser le modèle dans le registre des modèles
  • Création d’un point de terminaison vers le modèle
  • Interroger le point de terminaison
  • Atelier

    Réglage fin et mise en service d’un LLM

Objectifs

Les objectifs de la formation

  • Comprendre l'utilité des LLM
  • Maîtriser l'usage des LLM et de l'IA générative
  • Développer de nouveaux projets avec l'aide des LLM
Evaluation

Evaluation

  • Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Points forts

Les points forts de la formation

  • Une pédagogie basée sur l'alternance de phases théoriques, d'ateliers de mise en pratique, de retours d'expériences et de séances d'échanges.
  • Le partage de bonnes pratiques de la part de consultants experts en Intelligence Artificielle.
  • 83% des participants à cette formation se sont déclarés satisfaits ou très satisfaits au cours des 12 derniers mois.

Qualité des formations

ib Cegos est certifié Iso 9001 et Qualiopi.

Dates et villes

Mise à jour le 27/04/2024
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Nancy
    IBIS Style Nancy 8 allée de la Genelière
    54180 Houdemont
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Tours
    IBIS Style Tours Centre 4 place de la liberté
    37000 Tours
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Toulouse
    Immeuble TEA / Innoparc A 41 Rue de la Découverte, CS 37621
    31675 Labège Cedex
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Strasbourg
    Immeuble l'Avancée 26C, Bd du Président Wilson
    67000 Strasbourg
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Sophia Antipolis
    400 avenue Roumanille BP309 - Sophia Antipolis
    06410 Biot
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Rouen
    Parc d'Activités Technologiques de la Vatine / Bâtiment Red Cow - 2ème étage 2 ter rue Georges Charpak
    76130 Mont St Aignan
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Rennes
    ZAC de Saint Sulpice / Immeuble Osiris II 12J, rue du Patis Tatelin
    35000 Rennes
  • 1 975,00 € HT
    Places disponibles
    Session garantie
    S'inscrire
    Paris
    Tour Atlantique / 1 place de la Pyramide La Défense 9
    92800 Puteaux
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Nantes
    Immeuble Atalante 2 / Zac du Moulin Neuf 2, impasse Augustin Fresnel
    44800 St Herblain
  • 1 975,00 € HT
    Places disponibles
    Session garantie
    S'inscrire
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Montpellier
    Espace Entreprise GAROSUD 48 rue Claude Balbastre
    34070 Montpellier
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Marseille
    World Trade Center 2 rue Henri Barbusse
    13241 Marseille
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Lyon
    Le 6ème Sens 186, avenue Thiers
    69465 Lyon Cedex 06
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Lille
    Immeuble Le Corbusier 19, avenue Le Corbusier
    59000 Lille
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Grenoble
    Novotel Grenoble Centre 5-7 Place Robert Schuman
    38000 Grenoble
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Bordeaux
    9 rue de Condé
    33000 Bordeaux
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Aix en Provence
    Pôle d'activités d'Aix-en-Provence / Espace Cezanne 2ème étage 135, rue André Ampère
    13290 Aix-en-Provence
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Paris
    Tour Atlantique / 1 place de la Pyramide La Défense 9
    92800 Puteaux
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
    Paris
    Tour Atlantique / 1 place de la Pyramide La Défense 9
    92800 Puteaux
  • 1 975,00 € HT
    Places disponibles
    S'inscrire
Formation - IA Générative - Les modèles de langages massifs (LLMs)