Menu Recherche Panier
(...)
Vous êtes ici : Accueil > Catalogue des formations > Formation Big Data - Mise en oeuvre pratique d'une solution complète d'analyse des données
Technique

Formation Big Data - Mise en oeuvre pratique d'une solution complète d'analyse des données

Collecte et analyse de données massives

Comprendre les besoins métier pour livrer aux décideurs des indicateurs fiables et pertinents, tel est le rôle attendu des spécialistes Big Data. Précisément conçu pour leur apprendre à mettre en oeuvre une solution de Big Data en environnement Hadoop, solution phare pour les traitements Big Data, ce programme reprend le cheminement logique d’un projet d’analyse de données. De leur collecte initiale à la mise en place de solutions de stockage spécifiques permettant d’organiser un très grand volume d’information, à la réalisation de scripts Pig et Hive qui, convertis en tâches MapReduce, permettent d’agréger et de filtrer les données pour finalement les analyser, tous les aspects seront abordés.
Objectifs de cette formation Big Data - Mise en oeuvre pratique d'une solution complète d'analyse des données
  • Disposer des compétences techniques nécessaires à la mise en oeuvre d’analyses Big Data
  • Comprendre le cadre juridique du stockage et de l'analyse de données
  • Savoir utiliser des outils de collecte Open Source
  • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d'un projet (OLAP, NoSQL, graph)
  • Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,...)
  • Apprendre à analyser les résultats et comprendre la signification des données extraites
Public
  • Chefs de projet
  • Data Scientists, Data Analysts
  • Développeurs
  • Analystes et statisticien
  • Toute personne en charge de la mise en oeuvre opérationnelle d’un projet Big Data en environnement Hadoop
Pré-requis
Programme détaillé
Avant le présentielAvant le Présentiel
Pour aborder la formation dans les meilleures conditions, retrouvez sur le Learning Hub ib :
  • un quiz de consolidation des pré-requis
En présentielEn Présentiel

Introduction

  • Objectifs
  • Schématisation du projet
  • Écosystème et stack technologique
  • Résultats attendus
En présentielEn Présentiel

Ingestion de données massives

  • Description
  • Caractéristiques clés des outils d'ingestion
  • Solutions (packagées, cloud computing et Hadoop)
  • Focus Apache NIFI
  • Focus Apache KAFKA
  • Ingestion de données en streaming NIFI on KAFKA
  • Réalisation d’un workflow NIFI d’ingestion de donnée streaming dans HDFS
En présentielEn Présentiel

Traitement de données Big Data en batch

  • Diagramme de fonctionnement
  • Solutions logicielles associées (MapReduce, Hive, Spark, ...)
  • Big Data Batch scripting
  • Data Warehousing Big Data
  • Création de tables partitionnées, clusterisées et/ou transactionnelles
  • Écriture des scripts d’updates des différentes tables
  • Analytics Big Data
En présentielEn Présentiel

Traitement avancé Big Data : l’apprentissage machine

  • L’écosystème Spark
  • Schéma général de création d’un modèle de ML
  • Création d’un modèle de clusterisation de données
  • Création d’un modèle d’analyse prédictive supervisé
  • Enrichissement d’un DWH avec Spark
  • Sauvegarde d’un modèle d’apprentissage machine
  • Application d’un modèle ML
En présentielEn Présentiel

Stockage de données distribuées

  • Principes des bases de donnes distribuées
  • Solutions (NoSQL, NewSQL)
  • Création d’une base de données distribuée
  • Ingestion de données dans une base de données distribuées
  • Interrogation d’une base de données distribuées
En présentielEn Présentiel

Automatisation de chaîne de traitement Batch

  • L’orchestrateur Oozie
  • Ordonnancement de scripts HIVE
  • Combinaison avec des scripts SPARK
  • Création d’un worklow Oozie complet
En présentielEn Présentiel

Traitement de données massives en flux (streaming)

  • Principe de fonctionnement
  • Solutions logicielles
  • Le prétraitement de données en streaming
  • L’inscription de streams à un Hub Streaming
  • La consommation de streams auprès d’un Hub
  • Le traitement avancé de données en flux (machine learning)
En présentielEn Présentiel

Mise en oeuvre dans une architecture Big Data

  • Les approches standards
  • Réalisation d’une solution complète de traitement de données type Lamda
  • Réalisation d’une solution complète de traitement de données type Kappa
Après le présentielAprès le Présentiel
Retrouvez sur le Learning Hub ib :
  • Un quiz pédagogique pour évaluer vos acquis et approfondir les sujets de votre choix
  • Des vidéocasts pour revenir sur les points clés de la formation
  • Des vidéos-tutos pour vous accompagner dans l'utilisation des outils du Big Data
Les plus de cette formation Big Data - Mise en oeuvre pratique d'une solution complète d'analyse des données
  • Une formation très opérationnelle durant laquelle s'alternent les phases d'apports théoriques, d'échanges, de partage d'expériences.
  • Les participants réalisent sur un cas concret une chaîne de traitement Big Data (Batch et Streaming).
  • Travail dans un environnement Cloud sur une des distributions Hadoop les plus utilisées.
  • Les retours d'expérience et conseils de consultants experts du domaine.

Informations

Dimension Digitale

  • Durée : 4 jours (28h)
  • Tarif : 2 520 € HT
  • Réf. : BD550
  • Option(s)
    • Repas Paris : 92 € HT


Dates des sessions
Session garantie Formation à distance Session accessible à distance Visio
Bon à savoir...


= une réponse possible
= plusieurs réponses possibles

Vous n'avez pas répondu à toutes les questions !
Vous avez % de bonnes réponses, vous pouvez donc suivre cette formation.
Vous avez % de bonnes réponses.
Nous vous invitons à contacter nos Conseillers Formation au 0825 07 6000 afin qu'ils vous orientent vers une formation plus adaptée à vos connaissances.