Que ce soit en ligne ou sur site, les formations en direct animées par un instructeur sur Apache Hadoop démontrent, grâce à une pratique interactive et concrète, les composants essentiels de l'écosystème Hadoop et la manière dont ces technologies peuvent être utilisées pour résoudre des problèmes à grande échelle.
La formation Hadoop est disponible en « formation en direct en ligne » ou en « formation en direct sur site ». La formation en direct en ligne (également appelée « formation en direct à distance ») se déroule via un bureau distant interactif. La formation en direct sur site peut être dispensée localement, sur les sites des clients à Manitoba, ou dans les centres de formation d'entreprise de NobleProg situés à Manitoba.
Emplacement d’Affaires Idéal pour Professionnels et Clients
Idéalement situé à l’emblématique croisement de Portage et Main, 201 Portage Avenue est un choix parfait pour les entreprises recevant régulièrement des visiteurs. Avec un stationnement sur place, un salon d’affaires moderne et une variété de restaurants, cet emplacement garantit une expérience fluide et agréable.
Travaillez dans des bureaux lumineux et spacieux, dotés de grandes baies vitrées et de terrasses extérieures, conçus pour le confort et la productivité. Pour une pause bien méritée, plongez dans l’histoire locale au Manitoba Museum ou profitez d’une séance de shopping au Winnipeg Square Shopping Centre.
St. Mary
330, avenue St. Mary, Winnipeg, Canada, R3C 3Z5
Lien rapide vers l'aéroport international James Armstrong Richardson de Winnipeg à 20 minutes.
201, avenue Portage
201, avenue Portage – 18e étage, Winnipeg, Canada, R3B 3K6
Situé au 18e étage de l'immeuble le plus prestigieux de Winnipeg, le centre d'affaires 201 Portage Avenue allie une architecture époustouflante et un style moderne pour créer un environnement d'entreprise élégant et haut de gamme.
Cette formation en Manitoba (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser et intégrer Spark, Hadoop et Python pour traiter, analyser et transformer des ensembles de données complexes et volumineux.
A l'issue de cette formation, les participants seront capables de :
Mettre en place l'environnement nécessaire pour commencer à traiter les big data avec Spark, Hadoop et Python.
Comprendre les fonctionnalités, les composants de base et l'architecture de Spark et Hadoop.
Apprendre à intégrer Spark, Hadoop et Python pour le traitement des big data.
Explorer les outils de l'écosystème Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka et Flume).
Construire des systèmes de recommandation par filtrage collaboratif similaires à Netflix, YouTube, Amazon, Spotify et Google.
Utiliser Apache Mahout pour mettre à l'échelle des algorithmes d'apprentissage automatique.
Ce cours est destiné aux spécialistes des TIC à la recherche d'une solution pour stocker et traiter de grands ensembles de données dans un environnement de système distribué.
Goal :
Connaissance approfondie de l'administration des clusters Hadoop.
L'analyse de données volumineuses implique le processus d'examen de grands ensembles de données variées afin de découvrir des corrélations, des modèles cachés et d'autres informations utiles.
L'industrie de la santé dispose de masses de données médicales et cliniques complexes et hétérogènes. L'application de l'analyse de données volumineuses à des données de santé présente un énorme potentiel pour tirer des insights permettant d'améliorer la prestation des soins de santé. Cependant, l'énormité de ces ensembles de données pose de grands défis dans les analyses et les applications pratiques à un environnement clinique.
Dans cette formation dirigée par un formateur (à distance), les participants apprendront comment réaliser une analyse de données volumineuses dans la santé tout en effectuant une série d'exercices pratiques guidés.
À la fin de cette formation, les participants seront capables de :
Installer et configurer des outils d'analyse de données volumineuses tels que Hadoop MapReduce et Spark
Comprendre les caractéristiques des données médicales
Appliquer des techniques de grandes données pour gérer les données médicales
Étudier les systèmes et algorithmes de grande donnée dans le contexte des applications de santé
Public visé
Développeurs
Data Scientists
Format du cours
Partie exposé, partie discussion, exercices et pratique intensive.
Note
Pour demander une formation sur mesure pour ce cours, veuillez nous contacter pour organiser.
Apache Hadoop est le cadre le plus populaire pour le traitement Big Data sur des clusters de serveurs. Au cours de ce stage de trois jours (quatre jours optionnellement), les participants apprendront les avantages commerciaux et les cas d'utilisation pour Hadoop et son écosystème, comment planifier la mise en place et l'expansion du cluster, comment installer, entretenir, surveiller, résoudre les problèmes et optimiser Hadoop. Ils pratiqueront également le chargement de données massives sur le cluster, se familiariseront avec diverses distributions Hadoop, et exerceront l'installation et la gestion des outils de l'écosystème Hadoop. Le cours se terminera par une discussion sur la sécurisation du cluster avec Kerberos.
“…Les matériaux étaient très bien préparés et couverts en profondeur. La salle d'exercices était très utile et bien organisée” — Andrew Nguyen, Principal Integration DW Engineer, Microsoft Online Advertising
Audience
Administrateurs Hadoop
Format
Conférences et ateliers pratiques, répartition approximative 60% conférences, 40% ateliers.
Apache Hadoop est le framework le plus populaire pour traiter des données massives sur des clusters de serveurs. Ce cours introduira un développeur aux divers composants de l'écosystème Hadoop (HDFS, MapReduce, Pig, Hive et HBase).
Apache Hadoop est l'un des cadres les plus populaires pour traiter les Big Data sur des clusters de serveurs. Ce cours approfondit la gestion des données dans HDFS, Pig, Hive et HBase avancés. Ces techniques de programmation avancées seront bénéfiques aux développeurs expérimentés en Hadoop.
Public cible: développeurs
Durée : trois jours
Format : conférences (50 %) et laboratoires pratiques (50 %).
Cette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système qui souhaitent apprendre à mettre en place, déployer et gérer des clusters Hadoop au sein de leur organisation.
A l'issue de cette formation, les participants seront capables de :
Installer et configurer Apache Hadoop.
Comprendre les quatre composants majeurs de l'écosystème Hadoop : HDFS, MapReduce, YARN et Hadoop Common.
Utiliser le système de fichiers distribués Hadoop (HDFS) pour faire évoluer un cluster vers des centaines ou des milliers de nœuds.
Configurer HDFS comme moteur de stockage pour les déploiements Spark sur site.
Configurer Spark pour accéder à des solutions de stockage alternatives telles qu'Amazon S3 et des systèmes de base de données NoSQL tels que Redis, Elasticsearch, Couchbase, Aerospike, etc.
Exécuter des tâches administratives telles que le provisionnement, la gestion, la surveillance et la sécurisation d'un cluster Apache Hadoop.
Ce cours introduit HBase – un stockage NoSQL basé sur Hadoop. Le cours est destiné aux développeurs qui utiliseront HBase pour développer des applications, ainsi qu'aux administrateurs qui géreront les clusters HBase.
Nous guiderons un développeur à travers l'architecture de HBase, la modélisation des données et le développement d'applications sur HBase. Il abordera également l'utilisation de MapReduce avec HBase, ainsi que certains sujets d'administration liés à l'optimisation des performances. Le cours est très pratique avec de nombreux exercices de laboratoire.
Apache NiFi est une plateforme open-source, basée sur le flux de données, pour l'intégration et le traitement d'événements. Elle permet un routage, une transformation et une médiation en temps réel entre des systèmes disparates, avec une interface utilisateur web et un contrôle granulaire.
Cette formation dirigée par un instructeur (sur site ou à distance) est destinée aux administrateurs et ingénieurs de niveau intermédiaire qui souhaitent déployer, gérer, sécuriser et optimiser les flux de données NiFi dans des environnements de production.
À la fin de cette formation, les participants seront en mesure de :
Installer, configurer et maintenir des clusters Apache NiFi.
Concevoir et gérer des flux de données provenant de sources et de récepteurs variés.
Mettre en œuvre l'automatisation du flux, le routage et la logique de transformation.
Optimiser les performances, surveiller les opérations et dépanner les problèmes.
Format du cours
Cours interactif avec discussion sur l'architecture réelle.
Laboratoires pratiques : construction, déploiement et gestion des flux.
Exercices basés sur des scénarios dans un environnement de laboratoire en direct.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
Au cours de cette formation en direct et dirigée par un instructeur dans Manitoba, les participants apprendront les principes fondamentaux de la programmation par flux en développant un certain nombre d'extensions, de composants et de processeurs de démonstration à l'aide de Apache NiFi.
A la fin de cette formation, les participants seront capables de :
Comprendre l'architecture de NiFi et les concepts de flux de données.
Développer des extensions en utilisant NiFi et des APIs tierces.
Développer leur propre processeur Apache Nifi.
Ingérer et traiter des données en temps réel à partir de formats de fichiers et de sources de données disparates et peu communs.
En savoir plus...
Dernière Mise À Jour:
Nos clients témoignent (3)
Exercices pratiques. La formation aurait dû durer 5 jours, mais les 3 jours ont permis de clarifier beaucoup de questions que je me posais déjà en travaillant avec NiFi.
James - BHG Financial
Formation - Apache NiFi for Administrators
Traduction automatique
l'instructeur était clair et expliquait bien les choses. Le cours et les exercices étaient faciles à suivre.
Peter - Army
Formation - Apache NiFi for Developers
Traduction automatique
Le fait que nous ayons pu emporter avec nous la plupart des informations/cours/présentations/exercices effectués, afin de pouvoir les revoir et éventuellement refaire ce que nous n'avions pas compris la première fois ou améliorer ce que nous avions déjà fait.
Raul Mihail Rat - Accenture Industrial SS
Formation - Python, Spark, and Hadoop for Big Data
Apache Hadoop formation à Manitoba, Weekend Hadoop cours à Manitoba, Soir Hadoop formation à Manitoba, Apache Hadoop formateur en ligne à Manitoba, Apache Hadoop formation à Manitoba, Hadoop cours du soir à Manitoba, Apache Hadoop formation Intra à Manitoba, Hadoop formation Intra Entreprise à Manitoba, Apache Hadoop formation Inter à Manitoba, Hadoop formation Inter Entreprise à Manitoba, Apache Hadoop stage de préparation à Manitoba, Apache Hadoop formateur à Manitoba, Weekend Hadoop formation à Manitoba, Apache Hadoop cours particuliers à Manitoba, Apache Hadoop professeur à Manitoba,Apache Hadoop cours à Manitoba, Apache Hadoop coach à Manitoba, Apache Hadoop préparation aux examens à Manitoba, Hadoop instructeur à Manitoba, Soir Hadoop cours à Manitoba, Hadoop préparation à Manitoba, Apache Hadoop entraînement à Manitoba, Apache Hadoop cours privé à Manitoba, Hadoop sur place à Manitoba, Apache Hadoop coaching à Manitoba