IBM
IBM Datentechnik (berufsbezogenes Zertifikat)

Erwerben Sie mit Coursera Plus für 199 $ (regulär 399 $) das nächste Level. Jetzt sparen.

IBM

IBM Datentechnik (berufsbezogenes Zertifikat)

Bereiten Sie sich auf eine Karriere als Data Engineer vor. Erwerben Sie berufsreife Fähigkeiten - und KI-Kenntnisse, die Sie für eine gefragte Karriere benötigen. Erwerben Sie eine Qualifikation von IBM. Keine Vorkenntnisse erforderlich.

IBM Skills Network Team
Muhammad Yahya
Abhishek Gagneja

Dozenten: IBM Skills Network Team

143.414 bereits angemeldet

Bei Coursera Plus enthalten

Erwerben Sie eine Karrierereferenz, die Ihre Qualifikation belegt
4.7

(6,414 Bewertungen)

Stufe Anfänger

Empfohlene Erfahrung

Flexibler Zeitplan
6 Monate bei 10 Stunden eine Woche
In Ihrem eigenen Lerntempo lernen
Auf einen Abschluss hinarbeiten
Erwerben Sie eine Karrierereferenz, die Ihre Qualifikation belegt
4.7

(6,414 Bewertungen)

Stufe Anfänger

Empfohlene Erfahrung

Flexibler Zeitplan
6 Monate bei 10 Stunden eine Woche
In Ihrem eigenen Lerntempo lernen
Auf einen Abschluss hinarbeiten

Was Sie lernen werden

  • Beherrschen Sie die aktuellsten praktischen Fähigkeiten und Kenntnisse, die Dateningenieure in ihrer täglichen Arbeit benötigen

  • Lernen Sie, relationale Datenbanken zu erstellen, zu entwerfen und zu verwalten und Konzepte der Datenbankverwaltung (DBA) auf RDBMS wie MySQL, PostgreSQL und IBM Db2 anzuwenden.

  • Entwickeln Sie Kenntnisse in NoSQL & Big Data mit MongoDB, Cassandra, Cloudant, Hadoop, Apache Spark, Spark SQL, Spark ML und Spark Streaming

  • Implementieren von ETL und Datenpipelines mit Bash, Airflow und Kafka; Erstellen, Auffüllen und Bereitstellen von Data Warehouses; Erstellen von BI-Berichten und interaktiven Dashboards

Kompetenzen, die Sie erwerben

  • Kategorie: Web Scraping
  • Kategorie: Professionelles Netzwerken
  • Kategorie: Datenspeicher
  • Kategorie: SQL
  • Kategorie: Datenbankadministration
  • Kategorie: Extrahieren, Transformieren, Laden
  • Kategorie: Datenbank-Design
  • Kategorie: Linux-Befehle
  • Kategorie: Apache Hadoop
  • Kategorie: MySQL
  • Kategorie: Apache Spark
  • Kategorie: Data-Warehousing
  • Kategorie: IBM Cognos Analytics
  • Kategorie: NoSQL
  • Kategorie: Daten importieren/exportieren
  • Kategorie: Python-Programmierung
  • Kategorie: Datenverarbeitung
  • Kategorie: Apache Airflow
  • Kategorie: Generative KI
  • Kategorie: Datenanalyse

Wichtige Details

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufügen

Unterrichtet in Englisch

Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

 Logos von Petrobras, TATA, Danone, Capgemini, P&G und L'Oreal

Berufsbezogenes Zertifikat – 16 Kursreihen

Was Sie lernen werden

  • Nennen Sie die grundlegenden Fähigkeiten, die für eine Einstiegsposition in der Datentechnik erforderlich sind.

  • Diskutieren Sie die verschiedenen Phasen und Konzepte im Lebenszyklus der Datentechnik.

  • Beschreiben Sie Datentechnologien wie relationale Datenbanken, NoSQL-Datenspeicher und Big Data Engines.

  • Fassen Sie die Konzepte für Datensicherheit, Governance und Compliance zusammen.

Kompetenzen, die Sie erwerben

Kategorie: Daten-Pipelines
Kategorie: Data-Warehousing
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Datensicherheit
Kategorie: Daten Architektur
Kategorie: SQL
Kategorie: Relationale Datenbanken
Kategorie: Data Governance
Kategorie: Apache Spark
Kategorie: NoSQL
Kategorie: Big Data
Kategorie: Datenspeicher
Kategorie: Datenverarbeitung
Kategorie: Datenbanken
Kategorie: Daten-Seen
Kategorie: Apache Hadoop

Was Sie lernen werden

  • Entwickeln Sie ein grundlegendes Verständnis der Python-Programmierung, indem Sie die grundlegende Syntax, Datentypen, Ausdrücke, Variablen und String-Operationen erlernen.

  • Anwendung der Programmierlogik von Python unter Verwendung von Datenstrukturen, Bedingungen und Verzweigungen, Schleifen, Funktionen, Ausnahmebehandlung, Objekten und Klassen.

  • Demonstration von Kenntnissen im Umgang mit Python-Bibliotheken wie Pandas und Numpy und Entwicklung von Code mit Jupyter Notebooks.

  • Greifen Sie auf webbasierte Daten zu und extrahieren Sie sie, indem Sie mit REST APIs arbeiten und Web Scraping mit BeautifulSoup durchführen.

Kompetenzen, die Sie erwerben

Kategorie: Python-Programmierung
Kategorie: Pandas (Python-Paket)
Kategorie: NumPy
Kategorie: Web Scraping
Kategorie: Datenstrukturen
Kategorie: Datenmanipulation
Kategorie: Jupyter
Kategorie: Objektorientierte Programmierung (OOP)
Kategorie: Schnittstelle zur Anwendungsprogrammierung (API)
Kategorie: JSON
Kategorie: Datenanalyse
Kategorie: Restful API
Kategorie: Skripting
Kategorie: Computerprogrammierung
Kategorie: Grundsätze der Programmierung
Kategorie: Daten importieren/exportieren
Kategorie: Datenverarbeitung
Kategorie: Datei-E/A
Kategorie: Automatisierung

Was Sie lernen werden

  • Demonstrieren Sie Ihre Kenntnisse in Python für die Arbeit mit und die Manipulation von Daten

  • Implementieren Sie Webscraping und verwenden Sie APIs, um Daten mit Python zu extrahieren

  • Spielen Sie die Rolle eines Dateningenieurs, der an einem realen Projekt arbeitet, um Daten zu extrahieren, zu transformieren und zu laden

  • Verwenden Sie Jupyter-Notebooks und IDEs, um Ihr Projekt fertigzustellen

Kompetenzen, die Sie erwerben

Kategorie: Python-Programmierung
Kategorie: Datenmanipulation
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Web Scraping
Kategorie: Schnittstelle zur Anwendungsprogrammierung (API)
Kategorie: Code-Überprüfung
Kategorie: Datenumwandlung
Kategorie: Einheitstest
Kategorie: Style Guides
Kategorie: Integrierte Entwicklungsumgebungen
Kategorie: Datenbanken
Kategorie: SQL
Kategorie: Datenverarbeitung

Was Sie lernen werden

  • Beschreiben Sie Daten, Datenbanken, relationale Datenbanken und Cloud-Datenbanken.

  • Beschreiben Sie Informations- und Datenmodelle, relationale Datenbanken und relationale Modellkonzepte (einschließlich Schemata und Tabellen).

  • Erklären Sie ein Entity Relationship Diagram und entwerfen Sie eine relationale Datenbank für einen bestimmten Anwendungsfall.

  • Entwickeln Sie Kenntnisse über gängige DBMS wie MySQL, PostgreSQL und IBM DB2

Kompetenzen, die Sie erwerben

Kategorie: Relationale Datenbanken
Kategorie: SQL
Kategorie: Datenbank-Design
Kategorie: MySQL
Kategorie: PostgreSQL
Kategorie: Datenmanipulation
Kategorie: Datenbankarchitektur und -verwaltung
Kategorie: Datenbanken
Kategorie: Datenmodellierung
Kategorie: Datenbank Management
Kategorie: Datenmanagement
Kategorie: IBM DB2
Kategorie: Datenintegrität

Was Sie lernen werden

  • Analysieren Sie Daten in einer Datenbank mit SQL und Python.

  • Erstellen Sie eine relationale Datenbank und arbeiten Sie mit mehreren Tabellen unter Verwendung von DDL-Befehlen.

  • Konstruieren Sie einfache bis mittelschwere SQL-Abfragen mit DML-Befehlen.

  • Erstellen Sie leistungsfähigere Abfragen mit fortgeschrittenen SQL-Techniken wie Views, Transaktionen, Stored Procedures und Joins.

Kompetenzen, die Sie erwerben

Kategorie: SQL
Kategorie: Pandas (Python-Paket)
Kategorie: Datenanalyse
Kategorie: Datenbanken
Kategorie: Datenmanipulation
Kategorie: Relationale Datenbanken
Kategorie: Jupyter
Kategorie: Gespeicherte Prozedur
Kategorie: Abfragesprachen
Kategorie: Transaktionsverarbeitung
Kategorie: Python-Programmierung

Was Sie lernen werden

  • Beschreiben Sie die Linux-Architektur und gängige Linux-Distributionen und aktualisieren und installieren Sie Software auf einem Linux-System.

  • Führen Sie gängige Informations-, Datei-, Inhalts-, Navigations-, Komprimierungs- und Netzwerkbefehle in der Bash-Shell aus.

  • Entwickeln Sie Shell-Skripte mit Linux-Befehlen, Umgebungsvariablen, Pipes und Filtern.

  • Planen Sie Cron-Aufträge in Linux mit crontab und erklären Sie die Cron-Syntax.

Kompetenzen, die Sie erwerben

Kategorie: Linux-Befehle
Kategorie: Shell-Skript
Kategorie: Linux
Kategorie: Dateisysteme
Kategorie: Dateiverwaltung
Kategorie: Unix
Kategorie: Skripting
Kategorie: Unix-Befehle
Kategorie: Software-Installation
Kategorie: Ubuntu
Kategorie: Befehlszeilen-Schnittstelle
Kategorie: Automatisierung
Kategorie: Linux Verwaltung
Kategorie: OS Prozessverwaltung
Kategorie: Bash (Skriptsprache)
Kategorie: Netzwerk-Protokolle
Kategorie: Betriebssysteme

Was Sie lernen werden

  • Erstellen, Abfragen und Konfigurieren von Datenbanken und Zugriff auf und Aufbau von Systemobjekten wie z.B. Tabellen.

  • Führen Sie die grundlegende Datenbankverwaltung durch, einschließlich der Sicherung und Wiederherstellung von Datenbanken sowie der Verwaltung von Benutzerrollen und Berechtigungen.

  • Überwachen und optimieren Sie wichtige Aspekte der Datenbankleistung.

  • Beheben Sie Probleme mit der Datenbank wie Konnektivität, Anmeldung und Konfiguration und automatisieren Sie Funktionen wie Berichte, Benachrichtigungen und Alarme.

Kompetenzen, die Sie erwerben

Kategorie: Datenbank Management
Kategorie: Datenbankarchitektur und -verwaltung
Kategorie: Katastrophenhilfe
Kategorie: Verschlüsselung
Kategorie: MySQL
Kategorie: Datenbank-Design
Kategorie: Datenbank-Systeme
Kategorie: Relationale Datenbanken
Kategorie: Datenbankadministration
Kategorie: Operative Datenbanken
Kategorie: Leistungsoptimierung
Kategorie: PostgreSQL
Kategorie: Technologien zur Datenspeicherung
Kategorie: Benutzerkonten
Kategorie: IBM DB2
Kategorie: Systemüberwachung
Kategorie: Rollenbasierte Zugriffskontrolle (RBAC)

Was Sie lernen werden

  • Beschreiben und vergleichen Sie Extrahieren, Transformieren, Laden (ETL)-Prozesse und Extrahieren, Laden, Transformieren (ELT)-Prozesse.

  • Erklären Sie die Batch- und die gleichzeitige Ausführung.

  • Implementierung des ETL-Workflows durch Bash- und Python-Funktionen.

  • Beschreiben Sie die Komponenten, Prozesse, Tools und Technologien der Datenpipeline.

Kompetenzen, die Sie erwerben

Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Daten-Pipelines
Kategorie: Apache Airflow
Kategorie: Apache Kafka
Kategorie: Shell-Skript
Kategorie: Big Data
Kategorie: Web Scraping
Kategorie: Data-Warehousing
Kategorie: Datenmigration
Kategorie: Skalierbarkeit
Kategorie: Unix-Shell
Kategorie: Daten-Integration
Kategorie: Datenumwandlung
Kategorie: Leistungsoptimierung
Kategorie: Datenmarkt
Kategorie: Datenverarbeitung

Was Sie lernen werden

  • Berufsreife Data-Warehousing-Kenntnisse in nur 6 Wochen, unterstützt durch praktische Erfahrung und ein IBM-Zertifikat.

  • Entwerfen und bestücken Sie ein Data Warehouse und modellieren und fragen Sie Daten mit CUBE, ROLLUP und materialisierten Ansichten ab.

  • Identifizieren Sie gängige Datenanalyse- und Business Intelligence-Tools und -Anbieter und erstellen Sie Datenvisualisierungen mit IBM Cognos Analytics.

  • Wie man Daten entwirft und in ein Data Warehouse lädt, Aggregationsabfragen schreibt, materialisierte Abfragetabellen erstellt und ein Analyse-Dashboard erstellt.

Kompetenzen, die Sie erwerben

Kategorie: Data-Warehousing
Kategorie: Star Schema
Kategorie: Daten-Seen
Kategorie: Schneeflocken-Schema
Kategorie: Datenmarkt
Kategorie: IBM DB2
Kategorie: Datenmodellierung
Kategorie: Abfragesprachen
Kategorie: Datenbank-Design
Kategorie: Daten bereinigen
Kategorie: Daten-Integration
Kategorie: Datenüberprüfung
Kategorie: SQL
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: PostgreSQL
Kategorie: Daten Architektur
Kategorie: Datenqualität
Kategorie: Datenbank-Systeme

Was Sie lernen werden

  • Erforschung des Zwecks von Analyse- und Business Intelligence (BI)-Tools

  • Entdecken Sie die Möglichkeiten von IBM Cognos Analytics und Google Looker Studio

  • Zeigen Sie Ihr Können bei der Analyse von DB2-Daten mit IBM Cognos Analytics

  • Erstellung und gemeinsame Nutzung interaktiver Dashboards mit IBM Cognos Analytics und Google Looker Studio

Kompetenzen, die Sie erwerben

Kategorie: Looker (Software)
Kategorie: IBM Cognos Analytics
Kategorie: Datenvisualisierungssoftware
Kategorie: Dashboard
Kategorie: Interaktive Datenvisualisierung
Kategorie: Daten Präsentation
Kategorie: Business Intelligence Software
Kategorie: Business Intelligence
Kategorie: Analytics
Kategorie: Datenvisualisierung

Was Sie lernen werden

  • Unterscheiden Sie zwischen den vier Hauptkategorien von NoSQL-Repositories.

  • Beschreiben Sie die Merkmale, Funktionen, Vorteile, Einschränkungen und Anwendungen der gängigsten Big Data-Verarbeitungstools.

  • Führen Sie allgemeine Aufgaben mit MongoDB-Aufgaben durch, einschließlich Erstellen, Lesen, Aktualisieren und Löschen (CRUD).

  • Führen Sie Keyspace-, Tabellen- und CRUD-Operationen in Cassandra aus.

Kompetenzen, die Sie erwerben

Kategorie: NoSQL
Kategorie: Apache Cassandra
Kategorie: MongoDB
Kategorie: Datenmodellierung
Kategorie: Skalierbarkeit
Kategorie: Abfragesprachen
Kategorie: Verteiltes Rechnen
Kategorie: Datenbanken
Kategorie: JSON
Kategorie: Datenbankarchitektur und -verwaltung
Kategorie: Datenmanipulation
Kategorie: IBM Cloud
Kategorie: Datenbank Management

Was Sie lernen werden

  • Erklären Sie die Auswirkungen von Big Data, einschließlich Anwendungsfällen, Tools und Verarbeitungsmethoden.

  • Beschreiben Sie die Architektur, das Ökosystem, die Praktiken und die benutzerbezogenen Anwendungen von Apache Hadoop, einschließlich Hive, HDFS, HBase, Spark und MapReduce.

  • Wenden Sie die Grundlagen der Spark-Programmierung an, einschließlich der Grundlagen der parallelen Programmierung für DataFrames, Datensätze und Spark SQL.

  • Verwenden Sie die RDDs und Datensätze von Spark, optimieren Sie Spark SQL mit Catalyst und Tungsten und nutzen Sie die Optionen der Entwicklungs- und Laufzeitumgebung von Spark.

Kompetenzen, die Sie erwerben

Kategorie: Apache Spark
Kategorie: Big Data
Kategorie: Verteiltes Rechnen
Kategorie: Apache Hadoop
Kategorie: IBM Cloud
Kategorie: Apache Hive
Kategorie: Fehlersuche
Kategorie: Skalierbarkeit
Kategorie: Kubernetes
Kategorie: Docker (Software)
Kategorie: Datenverarbeitung
Kategorie: PySpark
Kategorie: Datenumwandlung
Kategorie: Entwicklungsumgebung
Kategorie: Leistungsoptimierung

Was Sie lernen werden

  • Beschreiben Sie ML, erläutern Sie seine Rolle im Data Engineering, fassen Sie generative KI zusammen, diskutieren Sie die Einsatzmöglichkeiten von Spark und analysieren Sie ML-Pipelines und Modellpersistenz.

  • Bewerten Sie ML-Modelle, unterscheiden Sie zwischen Regressions-, Klassifizierungs- und Clustering-Modellen und vergleichen Sie Data Engineering-Pipelines mit ML-Pipelines.

  • Konstruieren Sie die Datenanalyseprozesse mit Spark SQL und führen Sie Regression, Klassifizierung und Clustering mit SparkML durch.

  • Demonstrieren Sie die Verbindung zu Spark-Clustern, bauen Sie ML-Pipelines auf, führen Sie die Merkmalsextraktion und -umwandlung durch, und modellieren Sie die Persistenz.

Kompetenzen, die Sie erwerben

Kategorie: Apache Spark
Kategorie: Maschinelles Lernen
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Regressionsanalyse
Kategorie: Daten-Pipelines
Kategorie: Unüberwachtes Lernen
Kategorie: Prädiktive Modellierung
Kategorie: Überwachtes Lernen
Kategorie: PySpark
Kategorie: Datenverarbeitung
Kategorie: Vorverarbeitung der Daten
Kategorie: Modell Bewertung
Kategorie: Angewandtes maschinelles Lernen
Kategorie: Generative KI
Kategorie: Apache Hadoop

Was Sie lernen werden

  • Beherrschen Sie die Fähigkeiten, die für eine Einstiegsposition in der Datentechnik erforderlich sind.

  • Entwerfen und implementieren Sie verschiedene Konzepte und Komponenten im Lebenszyklus der Datentechnik, wie z.B. Daten-Repositories.

  • Präsentieren Sie Ihre Kenntnisse im Umgang mit relationalen Datenbanken, NoSQL-Datenspeichern, Big Data-Engines, Data Warehouses und Datenpipelines.

  • Wenden Sie Kenntnisse in Linux-Shell-Skripting, SQL und Python Programmiersprachen auf Data Engineering Probleme an.

Kompetenzen, die Sie erwerben

Kategorie: Datenbank-Design
Kategorie: SQL
Kategorie: Data-Warehousing
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: MySQL
Kategorie: Daten-Pipelines
Kategorie: Apache Spark
Kategorie: Big Data
Kategorie: Datenanalyse
Kategorie: MongoDB
Kategorie: NoSQL
Kategorie: Python-Programmierung
Kategorie: Statistische Berichterstattung
Kategorie: Angewandtes maschinelles Lernen
Kategorie: Relationale Datenbanken
Kategorie: PostgreSQL
Kategorie: Datenbanken
Kategorie: IBM Cognos Analytics
Kategorie: IBM DB2
Kategorie: Daten Architektur

Was Sie lernen werden

  • Nutzung verschiedener generativer KI-Tools und -Techniken in branchenübergreifenden Data-Engineering-Prozessen

  • Implementierung verschiedener Data-Engineering-Prozesse wie Datengenerierung, -anreicherung und -anonymisierung mit generativen KI-Tools

  • Üben Sie Ihre generativen KI-Fähigkeiten in praktischen Übungen und Projekten zum Entwurf von Data-Warehouse-Schemata und zur Einrichtung der Infrastruktur

  • Bewerten Sie Fallstudien aus der Praxis, die die erfolgreiche Anwendung von generativer KI für ETL und Datenrepositorien zeigen

Kompetenzen, die Sie erwerben

Kategorie: Generative KI
Kategorie: Daten-Synthese
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Datenanalyse
Kategorie: Verantwortungsvolle KI
Kategorie: Generative Modellarchitekturen
Kategorie: Daten Architektur
Kategorie: Datenethik
Kategorie: Data-Mining
Kategorie: Daten-Pipelines
Kategorie: KI-Förderung
Kategorie: Data-Warehousing
Kategorie: Abfragesprachen
Kategorie: Star Schema
Kategorie: Künstliche Intelligenz
Kategorie: Schneeflocken-Schema
Kategorie: Daten-Infrastruktur
Kategorie: Prompt Engineering
Kategorie: Faltungsneuronale Netzwerke
Kategorie: Datenbank-Design

Was Sie lernen werden

  • Beschreiben Sie die Rolle eines Dateningenieurs und einige Karrieremöglichkeiten sowie die voraussichtlichen Chancen in diesem Bereich.

  • Erläutern Sie, wie Sie eine Grundlage für die Stellensuche schaffen, einschließlich der Recherche von Stellenangeboten, dem Verfassen eines Lebenslaufs und der Erstellung einer Arbeitsmappe.

  • Fassen Sie zusammen, was ein Bewerber während eines typischen Vorstellungsgesprächszyklus erwarten kann, welche Arten von Vorstellungsgesprächen es gibt und wie man sich auf Vorstellungsgespräche vorbereitet.

  • Erklären Sie, wie Sie ein effektives Vorstellungsgespräch führen, einschließlich Techniken zur Beantwortung von Fragen und einer professionellen persönlichen Präsentation.

Kompetenzen, die Sie erwerben

Kategorie: Interviewing-Fähigkeiten
Kategorie: Professionelles Netzwerken
Kategorie: Daten-Pipelines
Kategorie: Daten-Infrastruktur
Kategorie: Kommunikations-Strategien
Kategorie: Berufliche Entwicklung
Kategorie: Datenethik
Kategorie: Technische Kommunikation
Kategorie: LinkedIn
Kategorie: Daten Strategie
Kategorie: Verbale Kommunikationsfähigkeiten

Erwerben Sie ein Karrierezertifikat.

Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.

Auf einen Abschluss hinarbeiten

Wenn Sie dieses Berufsbezogenes Zertifikatabschließen, können Sie sich Ihr Wissen möglicherweise anrechnen lassen, wenn Sie zu einem der folgenden Online-Studiengänge zugelassen werden und sich dort einschreiben.¹

 
ACE-Logo

Dieser Berufsbezogenes Zertifikat ist ACE®-empfohlen. Teilnehmende US-amerikanischen Colleges und Universitäten vergeben Credits dafür. Hinweis: Die Entscheidung bezüglich spezifischer Credit-Empfehlungen liegt bei den einzelnen Institutionen. 

Dozenten

IBM Skills Network Team
86 Kurse1.714.456 Lernende
Muhammad Yahya
IBM
5 Kurse98.320 Lernende
Abhishek Gagneja
IBM
6 Kurse258.057 Lernende

von

IBM

Warum entscheiden sich Menschen für Coursera für ihre Karriere?

Häufig gestellte Fragen

¹ Median salary and job opening data are sourced from Lightcast™ Job Postings Report. Content Creator, Machine Learning Engineer and Salesforce Development Representative (1/1/2024 - 12/31/2024) All other job roles (1/1/2025 - 1/1/2026)