HADOOP avec CLOUDERA (4 Jours)
- ref : BGHC
Introduction
À l'issue de la formation sur 4 jours les stagiaires appréhenderont pas des travaux pratiques l'écosystème Hadoop (HDFS, MapReduce, HBase, Hive, Pig, Sqoop, Flume) dans sa distribution Cloudera. Ils comprendront aussi les enjeux du Big Data et la place d'Hadoop dans l'ensemble des outils ainsi que ses usages . Cette formation est à 30% théorique et à 70% pratique.
Objectifs pédagogiques
- Comprendre le Big Data et ses enjeux
- Savoir déployer Hadoop avec Cloudera
- Comprendre l'écosystème d'Hadoop
- Comprendre HDFS le système de fichiers distribués d'Hadoop, le pattern MapReduce
- Structurer les données avec HBase
- Écrire des requêtes avec HiveQL
- Lancer une analyse avec Pig
- Importer et exporter des données avec Sqoop
- Flume un service pour les journaux de Streaming
- Aller plus loin avec des tests unitaires
Participants
Administrateurs systèmes, Développeurs
Pré-requis
Bonnes connaissances en administration système, préférablement Java
Programme
- Introduction
- Hadoop
- Mode autonome versus distribué
- MapReduce
- HBase
- Requêtes SQL avec Hive
- Analyser les données avec Pig
- Sqoop
- Flume
- Hadoop avancé