Menu Recherche Panier
(...)
Vous êtes ici : Accueil > Formation Hadoop - Présentation de l'écosystème
Séminaire

Formation Hadoop - Présentation de l'écosystème

Comprendre le rôle de chaque brique logicielle

Si Internet a révolutionné l’accès à l’information, son utilisation génère une quantité incalculable de nouvelles informations chaque jour... En enrichissant nos profils sur les réseaux sociaux, en rédigeant des billets sur des blogs, en participant à des forums ou en publiant des annonces sur des sites spécialisés, nous contribuons nous-même à créer de l’information. Afin d’exploiter au mieux des volumes sans cesse croissants de données, les moteurs de recherche et autres réseaux sociaux ont dû s’affranchir des outils traditionnels et développer leurs propres solutions. Les travaux de Google ont ainsi été à l’origine de la création du projet Open Source Hadoop, un Framework Java libre destiné à faciliter le stockage, l’exploitation et l’analyse de très grands volumes d’information (on parle ici de péta-octets) hébergés sur des milliers de machines différentes. Ce séminaire a pour objectif de présenter les différents éléments de l'écosystème Hadoop et leur rôle respectif dans un projet Big Data.

Objectifs de ce séminaire

Hadoop - Présentation de l'écosystème
  • Se repérer dans l’écosystème Hadoop
  • Connaître les différents éléments de l'écosystème Hadoop et leurs rôles respectifs
  • Pouvoir comprendre l'architecture des applicatifs Hadoop et savoir quels sont les apports et les cas d'usage des solutions Hadoop

Public

  • Chefs de projets, développeurs
  • Toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant

Pré-requis

Programme détaillé

Introduction

  • Rappels sur NoSQL
  • Le théorème CAP
  • Historique du projet Hadoop
  • Fonctionnalités : stockage, outils d'extraction, de conversion, ETL, analyse, ...
  • Exemples de cas d'utilisation sur des grands projets
  • Les principaux composants : HDFS pour le stockage et YARN pour les calculs
  • Les distributions et leurs caractéristiques (HortonWorks, Cloudera, MapR, EMR, Apache, ...)

L'architecture

  • Terminologie : NameNode, DataNode, ResourceManager
  • Rôle et interactions des différents composants
  • Présentation des outils d'infrastructure : ambari, avro, zookeeper
  • Présentation des outils de gestion des données : pig, oozie, tez, falcon, sqoop, flume
  • Présentation des outils d'interfaçage avec les applications GIS
  • Présentation des outils de restitution et requêtage : webhdfs, hive, hawq, impala, drill, stinger, tajo, mahout, lucene, elasticSearch, Kibana
  • Les architectures connexes : spark, cassandra

Exemples interactifs

  • Démonstrations sur une architecture Hadoop multi-noeuds
  • Mise à disposition d'un environnement pour des exemples de calcul
  • Travaux pratiques : intégration de données avec Flume, calculs map/reduce avec Pig, Hive, et Impala

Applications

  • Cas d'usages de Hadoop
  • Calculs distribués sur des clusters Hadoop

Les plus de ce séminaire

Hadoop - Présentation de l'écosystème
  • Un séminaire rythmé basé sur l'alternance de phases théoriques, de démonstrations et de travaux pratiques qui permet aux participants d'avoir une vue d'ensemble d'Hadoop et de son écosystème.
  • Un séminaire animé par un spécialiste du Big Data.

Informations

  • Durée : 1 Jour (7h)
  • Tarif : 735 € HT
  • Réf. : SEM35
  • Option(s)
    • Repas Paris : 23 € HT


Dates des sessions

Session garantie Formation à distance Session accessible à distance Visio
Bon à savoir...



= une réponse possible
= plusieurs réponses possibles

Vous n'avez pas répondu à toutes les questions !
Vous avez % de bonnes réponses, vous pouvez donc suivre cette formation.
Vous avez % de bonnes réponses.
Nous vous invitons à contacter nos Conseillers Formation au 0825 07 6000 afin qu'ils vous orientent vers une formation plus adaptée à vos connaissances.