Plan du cours
Section 1 : Introduction à Hadoop
- Histoire et concepts de Hadoop
- Écosystème
- Distributions
- Architecture de haut niveau
- Méthodes et mythes autour de Hadoop
- Défis liés à Hadoop
- Materiel / logiciel
- lab : première approche de Hadoop
Section 2 : HDFS
- Conception et architecture
- Concepts (échelle horizontale, réplication, localité des données, conscience du rack)
- Dæmons : Namenode, Secondary namenode, Data node
- Communications / battements de cœur
- Intégrité des données
- Chemin de lecture/écriture
- Namenode High Availability (HA), Federation
- labs : Interactions avec HDFS
Section 3 : Map Reduce
- concepts et architecture
- démons (MRV1) : jobtracker / tasktracker
- phases : driver, mapper, shuffle/sort, reducer
- Map Reduce Version 1 et Version 2 (YARN)
- Fonctionnement interne de Map Reduce
- Introduction au Java programme Map Reduce
- Travaux pratiques : Exécution d'un exemple de programme MapReduce
Section 4 : Pig
- Pig vs java map reduce
- flux de travail de pig
- Pig langage latin
- ETL avec Pig
- Transformations et jointures
- Fonctions définies par l'utilisateur (UDF)
- labs : écrire des scripts Pig pour analyser des données
Section 5 : Hive
- architecture et conception
- types de données
- Support SQL dans Hive
- Création de Hive tables et requêtes
- partitions
- jointures
- traitement de texte
- labs : divers labs sur le traitement des données avec Hive
Section 6 : HBase
- Concepts et architecture
- HBase vs RDBMS vs Cassandra
- HBase Java API
- Données de série temporelle sur HBase
- Conception du schéma
- labs : Interactions avec HBase en utilisant le shell ; programmation dans l'API Java HBase ; exercice de conception de schéma
Pré requis
- à l'aise avec Java langage de programmation (la plupart des exercices de programmation se font en Java)
- à l'aise dans l'environnement Linux (être capable de naviguer sur la ligne de commande Linux, d'éditer des fichiers en utilisant vi / nano)
Environnement de laboratoire
Zéro installation : Il n'est pas nécessaire d'installer le logiciel Hadoop sur les machines des étudiants ! Un cluster fonctionnel Hadoop sera fourni aux étudiants.
Les étudiants auront besoin des éléments suivants
- un client SSH (Linux et Mac disposent déjà de clients ssh, pour Windows il est recommandé d'utiliser Putty)
- un navigateur pour accéder au cluster, Firefox est recommandé
Nos clients témoignent (5)
Les exemples en direct
Ahmet Bolat - Accenture Industrial SS
Formation - Python, Spark, and Hadoop for Big Data
Traduction automatique
Pendant les exercices, James m'a expliqué chaque étape en détail là où j'étais bloqué. Je n'avais aucune expérience avec NIFI au départ. Il m'a expliqué le véritable objectif de NIFI, y compris des notions de base comme le code source ouvert. Il a couvert tous les concepts de Nifi, du niveau débutant au niveau développeur.
Firdous Hashim Ali - MOD A BLOCK
Formation - Apache NiFi for Administrators
Traduction automatique
Préparation et organisation du formateur, et qualité des matériaux fournis sur GitHub.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Formation - Impala for Business Intelligence
Traduction automatique
Que je l'aie eu dans un premier temps.
Peter Scales - CACI Ltd
Formation - Apache NiFi for Developers
Traduction automatique
les choses pratiques à faire, ainsi que la théorie qui a été bien expliquée par Ajay
Dominik Mazur - Capgemini Polska Sp. z o.o.
Formation - Hadoop Administration on MapR
Traduction automatique