Pearson
Spezialisierung für Hadoop and Spark Fundamentals

Erwerben Sie mit Coursera Plus für 199 $ (regulär 399 $) das nächste Level. Jetzt sparen.

spezialisierung ist nicht verfügbar in Deutsch (Deutschland)

Wir übersetzen es in weitere Sprachen.
Pearson

Spezialisierung für Hadoop and Spark Fundamentals

Get Started With Hadoop and Spark. Core components, tools, installation, and data processing for the Apache Hadoop Big Data ecosystem.

Pearson

Dozent: Pearson

Bei Coursera Plus enthalten

Befassen Sie sich eingehend mit einem Thema
Stufe Mittel

Empfohlene Erfahrung

4 Wochen zu vervollständigen
unter 5 Stunden pro Woche
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen
Befassen Sie sich eingehend mit einem Thema
Stufe Mittel

Empfohlene Erfahrung

4 Wochen zu vervollständigen
unter 5 Stunden pro Woche
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen

Was Sie lernen werden

  • Install, configure, and operate Hadoop and Spark environments on both single machines and clusters, utilizing tools like Ambari and Zeppelin for effective management and development.

  • Understand and apply core big data concepts, including HDFS, MapReduce, PySpark, HiveQL, and advanced data ingestion techniques using Flume and Sqoop.

  • Develop, run, and debug data analytics applications, leveraging higher-level tools and scripting languages to efficiently process and analyze large datasets.

Kompetenzen, die Sie erwerben

  • Kategorie: Text Mining
  • Kategorie: Apache Spark
  • Kategorie: Distributed Computing
  • Kategorie: Data Processing
  • Kategorie: Linux Commands
  • Kategorie: C++ (Programming Language)
  • Kategorie: Data Integration
  • Kategorie: Apache Hive
  • Kategorie: Data Management
  • Kategorie: Relational Databases
  • Kategorie: Command-Line Interface
  • Kategorie: Data Transformation
  • Kategorie: Java
  • Kategorie: Big Data
  • Kategorie: PySpark
  • Kategorie: Apache Hadoop
  • Kategorie: Data Lakes
  • Kategorie: File Systems
  • Kategorie: Data Import/Export
  • Kategorie: Analytics

Wichtige Details

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufügen

Unterrichtet in Englisch
Kürzlich aktualisiert!

August 2025

Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

 Logos von Petrobras, TATA, Danone, Capgemini, P&G und L'Oreal

Erweitern Sie Ihre Fachkenntnisse.

  • Erlernen Sie gefragte Kompetenzen von Universitäten und Branchenexperten.
  • Erlernen Sie ein Thema oder ein Tool mit echten Projekten.
  • Entwickeln Sie ein fundiertes Verständnisse der Kernkonzepte.
  • Erwerben Sie ein Karrierezertifikat von Pearson.

Spezialisierung - 3 Kursreihen

Was Sie lernen werden

  • Understand the core concepts of Hadoop, including its architecture, data lake metaphor, and the role of MapReduce and Spark in big data analytics.

  • Install and configure a full-featured Hadoop and Spark environment on your desktop or laptop using the Hortonworks HDP sandbox.

  • Navigate and utilize the Hadoop Distributed File System (HDFS), including advanced features like high availability and federation.

  • Gain hands-on experience running Hadoop and Spark applications, preparing you for real-world data analytics challenges.

Kompetenzen, die Sie erwerben

Kategorie: Apache Hadoop
Kategorie: Linux Commands
Kategorie: File Systems
Kategorie: Apache Spark
Kategorie: Big Data
Kategorie: Data Processing
Kategorie: Data Management
Kategorie: System Configuration
Kategorie: Software Installation
Kategorie: Data Lakes
Kategorie: Distributed Computing
Kategorie: Command-Line Interface

Was Sie lernen werden

  • Understand and implement Hadoop MapReduce for distributed data processing, including compiling, running, and debugging applications.

  • Apply advanced MapReduce techniques to real-world scenarios such as log analysis and large-scale text processing.

  • Utilize higher-level tools like Apache Pig and Hive QL to streamline data workflows and perform complex queries.

  • Gain hands-on experience with Apache Spark and PySpark for modern, scalable data analytics.

Kompetenzen, die Sie erwerben

Kategorie: Apache Hadoop
Kategorie: Apache Spark
Kategorie: PySpark
Kategorie: Apache Hive
Kategorie: Data Processing
Kategorie: Text Mining
Kategorie: Java
Kategorie: Analytics
Kategorie: Big Data
Kategorie: Distributed Computing
Kategorie: Debugging
Kategorie: Data Transformation
Kategorie: Java Programming

Was Sie lernen werden

  • Master advanced data ingestion techniques into Hadoop HDFS, including Hive, Spark, Flume, and Sqoop.

  • Develop and run interactive Spark applications using the Apache Zeppelin web interface.

  • Install, monitor, and administer Hadoop clusters with Ambari and essential command-line tools.

  • Utilize advanced HDFS features such as snapshots and NFS mounts for enhanced data management.

Kompetenzen, die Sie erwerben

Kategorie: Apache Hive
Kategorie: Apache Spark
Kategorie: Apache Hadoop
Kategorie: Data Import/Export
Kategorie: Command-Line Interface
Kategorie: Software Installation
Kategorie: Big Data
Kategorie: Relational Databases
Kategorie: File Systems
Kategorie: Data Integration

Erwerben Sie ein Karrierezertifikat.

Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.

Dozent

Pearson
Pearson
268 Kurse29.504 Lernende

von

Pearson

Warum entscheiden sich Menschen für Coursera für ihre Karriere?

Felipe M.
Lernender seit 2018
„Es ist eine großartige Erfahrung, in meinem eigenen Tempo zu lernen. Ich kann lernen, wenn ich Zeit und Nerven dazu habe.“
Jennifer J.
Lernender seit 2020
„Bei einem spannenden neuen Projekt konnte ich die neuen Kenntnisse und Kompetenzen aus den Kursen direkt bei der Arbeit anwenden.“
Larry W.
Lernender seit 2021
„Wenn mir Kurse zu Themen fehlen, die meine Universität nicht anbietet, ist Coursera mit die beste Alternative.“
Chaitanya A.
„Man lernt nicht nur, um bei der Arbeit besser zu werden. Es geht noch um viel mehr. Bei Coursera kann ich ohne Grenzen lernen.“

Häufig gestellte Fragen