Fantom Tag

Formation - Hadoop - Cloudera pour architectes et administrateurs

Mise en oeuvre d'une solution de stockage réparti

  • Présentiel ou classe à distance
Formation à la demande
Référence
BD503

Cette thématique vous intéresse ?
Nos experts conçoivent votre formation
sur-mesure !
S'imposant peu à peu comme la solution standard pour les projets Big Data, Hadoop est un framework composé de divers outils permettant de traiter des volumes de données considérables. Base de tout projet de Big Data, le stockage des données revêt une dimension stratégique puisque de son organisation initiale et de sa qualité dépendront la pertinence et l'efficacité de leur exploitation. A l'issue de cette formation, les architectes et administrateurs en charge de la mise en oeuvre et de la gestion d'une solution Big Data seront à même d'utiliser les différents outils fournis par la distribution Cloudera de Hadoop pour mener à bien leur mission.
Lire la suite
Pour qui ?

A qui s'adresse cette formation ?

Pour qui

  • Administrateurs systèmes et personnes qui gèrent et maintiennent les clusters Apache Hadoop en production ou qui évoluent dans un environnement de développement

Prérequis

  • La plate-forme reposant sur une architecture Linux, il est demandé aux participants de savoir naviguer et modifier des fichiers dans cet environnement
  • Une connaissance préliminaire d'Hadoop n'est pas exigée
Programme

Le programme

1 - Introduction

  • Présentation générale d'Hadoop
  • Exemples d'utilisation dans différents secteurs
  • Historique et chiffres clés : quand parle-t-on de Big Data ?
  • Les possibilités d'implantation de l'infrastructure et les coûts associés

2 - L'écosystème d'Hadoop

  • Le système de fichier HDFS
  • Le paradigme MapReduce et l'utilisation à travers YARN
  • Le garant des informations : Zookeeper
  • Le système de stockage de la donnée basé sur le socle : HBase
  • La présentation de l'architecture globale : où installer les services ?
  • La définition du dimensionnement pour un cluster Hadoop
  • Les particularités de MapR

3 - Installation du socle d'Hadoop

  • Installation et configuration manuelle pas-à-pas sur plusieurs machines de : HDFS, YARN, Zookeeper, HBase

4 - Manipulation des données dans un cluster Hadoop

  • Architecture, objectif et fonctionnement de : Hue, Hive, Pig, Oozie, Sqoop, Flume, Spark
  • Mise en pratique sur les différents outils

5 - Exploitation d'un cluster Hadoop

  • Architecture, objectif et fonctionnement du manager : MapR Control System
  • Mise en pratique

6 - Concepts d'architecture complexe

  • Architecture en rack : les avantages et fonctionnement et paramétrage du rack awareness
  • Scalabilité et performances : le Namenode Federation
  • Haute disponibilité des serveurs maitres
  • Utilisation des snapshots : sauvegarde et restauration

Evaluation

  • Cette formation fait l'objet d'une évaluation formative.
Objectifs

Les objectifs de la formation

  • Savoir élaborer une architecture Hadoop
  • Comprendre comment Hadoop Distributed File System (HDFS) et Yarn/MapReduce fonctionnent
  • Être en mesure d'exploiter et gérer un cluster Hadoop
  • Apprendre à configurer Hadoop et ses outils
  • Pouvoir mettre en oeuvre un cluster Hadoop
  • Comprendre comment gérer la maintenance des noeuds dans un cluster
  • Savoir déplacer et gérer les données dans un cluster
  • Être capable d'administrer un cluster Hadoop
Points forts

Les points forts de la formation

  • L'apprentissage par la pratique : les différents points traités pendant la formation sont illustrés par des exercices pratiques permettant la consolidation des acquis.
  • Les phases théoriques sont illustrées d'exemples concrets.

Qualité des formations

ib Cegos est certifié Iso 9001 et Qualiopi.

En savoir plus

Formation - Hadoop - Cloudera pour architectes et administrateurs