New
Fantom Tag
Formation - Déploiement local de LLMs – Fine-tuning, inférence haute performance et sécurité
Mettre en oeuvre une infrastructure d’inférence performante et maîtriser l’adaptation des modèles tout en garantissant la protection des données
Présentiel ou classe à distance- Perfectionnement
PRESENTIEL OU CLASSE A DISTANCE
2 jours (14 heures)
2 050,00 € HT
IA114
Dans vos locaux ou à distance
Formation à la demande
Cette thématique vous intéresse ?
Nos experts conçoivent votre formation
sur-mesure !
Nos experts conçoivent votre formation
sur-mesure !
Le déploiement souverain de modèles de langage (LLMs) constitue aujourd’hui un enjeu stratégique majeur pour les entreprises souhaitant exploiter l’intelligence artificielle tout en maîtrisant leurs données. Les technologies comme vLLM, LoRA et l’inférence locale permettent de construire des solutions performantes, sécurisées et indépendantes des plateformes cloud externes. Cette approche favorise la confidentialité, la souveraineté des données et la réduction des coûts d’exploitation, tout en garantissant des performances élevées pour les applications IA.
Se former à ces technologies permet d’acquérir des compétences clés pour concevoir, optimiser et sécuriser des architectures IA modernes. Cette formation offre une approche concrète et opérationnelle pour industrialiser des modèles IA en local, maîtriser le fine-tuning et mettre en oeuvre des stratégies de sécurité end-to-end. Elle répond aux besoins des organisations souhaitant développer des solutions IA robustes, conformes et adaptées aux enjeux actuels de souveraineté numérique.
Se former à ces technologies permet d’acquérir des compétences clés pour concevoir, optimiser et sécuriser des architectures IA modernes. Cette formation offre une approche concrète et opérationnelle pour industrialiser des modèles IA en local, maîtriser le fine-tuning et mettre en oeuvre des stratégies de sécurité end-to-end. Elle répond aux besoins des organisations souhaitant développer des solutions IA robustes, conformes et adaptées aux enjeux actuels de souveraineté numérique.
Pour qui ?
A qui s'adresse cette formation ?
Pour qui
- Développeurs backend, Tech Leads, Ingénieurs IA
Prérequis
- Maîtriser le développement Python backend, incluant les bonnes pratiques de versioning avec Git
- Disposer de bases solides en intelligence artificielle et modèles de langage (LLM), ainsi que des architectures fondamentales
- Être à l’aise avec les environnements Linux, la ligne de commande et les outils de conteneurisation (Docker) pour le déploiement d’applications
- Disposez-vous des connaissances nécessaires pour suivre cette formation ? Testez-vous !
Programme
Le programme
Evaluation
- Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Objectifs
Les objectifs de la formation
- Comprendre les enjeux du déploiement souverain de modèles de langage (LLMs) et de la gestion sécurisée des données
- Maîtriser les techniques d’inférence locale et de quantization pour optimiser les performances et réduire les coûts
- Mettre en oeuvre des méthodes de fine-tuning avec LoRA / QLoRA pour adapter un modèle IA à des besoins métiers spécifiques
- Déployer une architecture d’inférence haute performance avec vLLM ou TGI adaptée à un usage en production
- Concevoir et sécuriser des solutions d’IA avec une approche end-to-end (sécurité, gouvernance, contrôle des accès)
Évaluation
Évaluation
- Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Points forts
Les points forts de la formation
- Une pédagogie active alternant apports théoriques et travaux pratiques sur le déploiement de LLMs en local (vLLM, LoRA, quantization)
- Des cas concrets issus de l’entreprise pour maîtriser l’IA souveraine, l’inférence locale et la sécurisation des modèles
- L’intégration des bonnes pratiques de sécurité IA : protection contre les attaques, gestion des accès et gouvernance des données
- L’expertise d’un formateur spécialiste en IA et architectures LLM, avec retour d’expérience terrain
Qualité des formations
ib Cegos est certifié Iso 9001 et Qualiopi.
En savoir plus
Sessions
Mis à jour le 22/04/2026
- 2 050,00 € HTPlaces disponiblesS'inscrire
- 2 050,00 € HTPlaces disponiblesS'inscrireParisTour Atlantique / 1 place de la Pyramide La Defense 992800 Puteaux
- 2 050,00 € HTPlaces disponiblesS'inscrire
- 2 050,00 € HTPlaces disponiblesS'inscrireParisTour Atlantique / 1 place de la Pyramide La Defense 992800 Puteaux
- 2 050,00 € HTPlaces disponiblesS'inscrire
- 2 050,00 € HTPlaces disponiblesS'inscrireParisTour Atlantique / 1 place de la Pyramide La Defense 992800 Puteaux
- 2 050,00 € HTPlaces disponiblesS'inscrire
- 2 050,00 € HTPlaces disponiblesS'inscrireParisTour Atlantique / 1 place de la Pyramide La Defense 992800 Puteaux
Formation - Déploiement local de LLMs – Fine-tuning, inférence haute performance et sécurité
Forfait Intra
Le forfait Intra comprend :
- La formation dans vos locaux pour un groupe de 12 personnes maximum
- L'ensemble des activités pédagogiques prévues dans la fiche de présentation de la formation
- La documentation au format numérique
- L'évaluation et l'émargement dématérialisés
Il ne comprend pas les frais de déplacement et d'hébergement du formateur.
Recevoir le programme par email
Envoyer le programme à un collaborateur
Preis
Es entstehen keine zusätzlichen Liefer- & Versandkosten

