IBM

IBM Datentechnik (berufsbezogenes Zertifikat)

Erweitern Sie Ihre Kenntnisse mit Coursera Plus für 239 $/Jahr (normalerweise 399 $). Jetzt sparen.

IBM

IBM Datentechnik (berufsbezogenes Zertifikat)

Bereiten Sie sich auf eine Karriere als Data Engineer vor.

Erwerben Sie berufsreife Fähigkeiten - und KI-Kenntnisse, die Sie für eine gefragte Karriere benötigen. Erwerben Sie eine Qualifikation von IBM. Keine Vorkenntnisse erforderlich.

IBM Skills Network Team
Muhammad Yahya
Abhishek Gagneja

Dozenten: IBM Skills Network Team

171.071 bereits angemeldet

Bei Coursera Plus enthalten

Erwerben Sie eine Karrierereferenz, die Ihre Qualifikation belegt

aus 62,005 Bewertungen von Kursen in diesem Programm

Stufe Anfänger

Empfohlene Erfahrung

Flexibler Zeitplan
6 Monate bei 10 Stunden eine Woche
In Ihrem eigenen Lerntempo lernen
Auf einen Abschluss hinarbeiten
Erwerben Sie eine Karrierereferenz, die Ihre Qualifikation belegt

aus 62,005 Bewertungen von Kursen in diesem Programm

Stufe Anfänger

Empfohlene Erfahrung

Flexibler Zeitplan
6 Monate bei 10 Stunden eine Woche
In Ihrem eigenen Lerntempo lernen
Auf einen Abschluss hinarbeiten

Was Sie lernen werden

  • Beherrschen Sie die aktuellsten praktischen Fähigkeiten und Kenntnisse, die Dateningenieure in ihrer täglichen Arbeit benötigen

  • Lernen Sie, relationale Datenbanken zu erstellen, zu entwerfen und zu verwalten und Konzepte der Datenbankverwaltung (DBA) auf RDBMS wie MySQL, PostgreSQL und IBM Db2 anzuwenden.

  • Entwickeln Sie Kenntnisse in NoSQL & Big Data mit MongoDB, Cassandra, Cloudant, Hadoop, Apache Spark, Spark SQL, Spark ML und Spark Streaming

  • Implementieren von ETL und Datenpipelines mit Bash, Airflow und Kafka; Erstellen, Auffüllen und Bereitstellen von Data Warehouses; Erstellen von BI-Berichten und interaktiven Dashboards

Kompetenzen, die Sie erwerben

  • Kategorie: Datenanalyse
  • Kategorie: Daten importieren/exportieren
  • Kategorie: Datenwissenschaft
  • Kategorie: Data Warehousing
  • Kategorie: Datenbank-Design
  • Kategorie: Datenbank-Management
  • Kategorie: Extrahieren, Transformieren, Laden
  • Kategorie: IBM Kognos-Analytik
  • Kategorie: Linux-Befehle
  • Kategorie: Professionelle Netzwerkarbeit
  • Kategorie: SQL
  • Kategorie: Datenvisualisierung
  • Kategorie: Web-Scraping

Werkzeuge, die Sie lernen werden

  • Kategorie: Apache Hadoop
  • Kategorie: Apache Spark
  • Kategorie: Bash (Skriptsprache)
  • Kategorie: Generative KI
  • Kategorie: IBM DB2
  • Kategorie: Python-Programmierung
  • Kategorie: Shell-Skript

Wichtige Details

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufügen

Unterrichtet in Englisch

Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

 Logos von Petrobras, TATA, Danone, Capgemini, P&G und L'Oreal

Berufsbezogenes Zertifikat – 16 Kursreihen

Einführung in das Dateningenieurswesen

Einführung in das Dateningenieurswesen

KURS 1, 14 Stunden

Was Sie lernen werden

  • Nennen Sie die grundlegenden Fähigkeiten, die für eine Einstiegsposition in der Datentechnik erforderlich sind.

  • Diskutieren Sie die verschiedenen Phasen und Konzepte im Lebenszyklus der Datentechnik.

  • Beschreiben Sie Datentechnologien wie relationale Datenbanken, NoSQL-Datenspeicher und Big Data Engines.

  • Fassen Sie die Konzepte für Datensicherheit, Governance und Compliance zusammen.

Kompetenzen, die Sie erwerben

Kategorie: Daten-Pipelines
Kategorie: Data Warehousing
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Datenbanken
Kategorie: Datensicherheit
Kategorie: Große Daten
Kategorie: Integration von Daten
Kategorie: SQL
Kategorie: Datenarchitektur
Kategorie: Datenverwaltung
Kategorie: Apache Spark
Kategorie: Datenumwandlung
Kategorie: NoSQL
Kategorie: Daten-Seen
Kategorie: Relationale Datenbanken
Kategorie: Technologien zur Datenspeicherung
Kategorie: Datenspeicherung
Kategorie: Datenwissenschaft
Kategorie: Apache Hadoop
Python für Datenwissenschaft, KI und Entwicklung

Python für Datenwissenschaft, KI und Entwicklung

KURS 2, 24 Stunden

Was Sie lernen werden

  • Entwickeln Sie ein grundlegendes Verständnis der Python-Programmierung, indem Sie die grundlegende Syntax, Datentypen, Ausdrücke, Variablen und String-Operationen erlernen.

  • Anwendung der Programmierlogik von Python unter Verwendung von Datenstrukturen, Bedingungen und Verzweigungen, Schleifen, Funktionen, Ausnahmebehandlung, Objekten und Klassen.

  • Demonstration von Kenntnissen im Umgang mit Python-Bibliotheken wie Pandas und Numpy und Entwicklung von Code mit Jupyter Notebooks.

  • Greifen Sie auf webbasierte Daten zu und extrahieren Sie sie, indem Sie mit REST APIs arbeiten und Web Scraping mit BeautifulSoup durchführen.

Kompetenzen, die Sie erwerben

Kategorie: Python-Programmierung
Kategorie: Pandas (Python-Paket)
Kategorie: NumPy
Kategorie: Daten-Strukturen
Kategorie: Datei-E/A
Kategorie: Web-Scraping
Kategorie: JSON
Kategorie: Jupyter
Kategorie: Anwendungsprogrammierschnittstelle (API)
Kategorie: Objektorientierte Programmierung (OOP)
Kategorie: Datenmanipulation
Kategorie: Computerprogrammierung
Kategorie: Datenanalyse
Kategorie: Grundsätze der Programmierung
Kategorie: Daten importieren/exportieren
Kategorie: Restful API
Kategorie: Automatisierung
Python-Projekt für Data Engineering

Python-Projekt für Data Engineering

KURS 3, 10 Stunden

Was Sie lernen werden

  • Demonstrieren Sie Ihre Kenntnisse in Python für die Arbeit mit und die Manipulation von Daten

  • Implementieren Sie Webscraping und verwenden Sie APIs, um Daten mit Python zu extrahieren

  • Spielen Sie die Rolle eines Dateningenieurs, der an einem realen Projekt arbeitet, um Daten zu extrahieren, zu transformieren und zu laden

  • Verwenden Sie Jupyter-Notebooks und IDEs, um Ihr Projekt fertigzustellen

Kompetenzen, die Sie erwerben

Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Web-Scraping
Kategorie: Python-Programmierung
Kategorie: Daten-Pipelines
Kategorie: Einheitliche Prüfung
Kategorie: Grundsätze der Programmierung
Kategorie: SQL Server Integrationsdienste (SSIS)
Kategorie: Paket- und Softwareverwaltung
Kategorie: Datenbanken
Kategorie: Anwendungsprogrammierschnittstelle (API)
Kategorie: Datenumwandlung
Kategorie: Datenbank-Management
Einführung in relationale Datenbanken (RDBMS)

Einführung in relationale Datenbanken (RDBMS)

KURS 4, 17 Stunden

Was Sie lernen werden

  • Beschreiben Sie Daten, Datenbanken, relationale Datenbanken und Cloud-Datenbanken.

  • Beschreiben Sie Informations- und Datenmodelle, relationale Datenbanken und relationale Modellkonzepte (einschließlich Schemata und Tabellen).

  • Erklären Sie ein Entity Relationship Diagram und entwerfen Sie eine relationale Datenbank für einen bestimmten Anwendungsfall.

  • Entwickeln Sie Kenntnisse über gängige DBMS wie MySQL, PostgreSQL und IBM DB2

Kompetenzen, die Sie erwerben

Kategorie: Datenbank-Design
Kategorie: Relationale Datenbanken
Kategorie: MySQL
Kategorie: PostgreSQL
Kategorie: SQL
Kategorie: Datenmodellierung
Kategorie: Datenmanipulation
Kategorie: Datenbankarchitektur und -verwaltung
Kategorie: Datenbank-Management
Kategorie: Datenbanken
Kategorie: Daten importieren/exportieren
Kategorie: IBM DB2
Kategorie: Integrität der Daten
Datenbanken und SQL für Datenwissenschaft mit Python

Datenbanken und SQL für Datenwissenschaft mit Python

KURS 5, 18 Stunden

Was Sie lernen werden

  • Analysieren Sie Daten in einer Datenbank mit SQL und Python.

  • Erstellen Sie eine relationale Datenbank und arbeiten Sie mit mehreren Tabellen unter Verwendung von DDL-Befehlen.

  • Konstruieren Sie einfache bis mittelschwere SQL-Abfragen mit DML-Befehlen.

  • Erstellen Sie leistungsfähigere Abfragen mit fortgeschrittenen SQL-Techniken wie Views, Transaktionen, Stored Procedures und Joins.

Kompetenzen, die Sie erwerben

Kategorie: SQL
Kategorie: Pandas (Python-Paket)
Kategorie: Jupyter
Kategorie: Relationale Datenbanken
Kategorie: Datenanalyse
Kategorie: Datenbanken
Kategorie: Datenmanipulation
Kategorie: Gespeicherte Prozedur
Kategorie: Transaktionsverarbeitung
Kategorie: Abfragesprachen
Kategorie: Python-Programmierung

Was Sie lernen werden

  • Beschreiben Sie die Linux-Architektur und gängige Linux-Distributionen und aktualisieren und installieren Sie Software auf einem Linux-System.

  • Führen Sie gängige Informations-, Datei-, Inhalts-, Navigations-, Komprimierungs- und Netzwerkbefehle in der Bash-Shell aus.

  • Entwickeln Sie Shell-Skripte mit Linux-Befehlen, Umgebungsvariablen, Pipes und Filtern.

  • Planen Sie Cron-Aufträge in Linux mit crontab und erklären Sie die Cron-Syntax.

Kompetenzen, die Sie erwerben

Kategorie: Linux-Befehle
Kategorie: Shell-Skript
Kategorie: Dateiverwaltung
Kategorie: Bash (Skriptsprache)
Kategorie: Dateisysteme
Kategorie: Skripting
Kategorie: OS Prozessmanagement
Kategorie: Betriebssysteme
Kategorie: Linux-Verwaltung
Kategorie: Netzwerk-Protokolle
Kategorie: Automatisierung
Kategorie: Unix
Kategorie: Linux
Kategorie: Installation der Software
Kategorie: Befehlszeilenschnittstelle
Kategorie: Unix-Befehle
Kategorie: Ubuntu
Relationale Datenbankverwaltung (DBA)

Relationale Datenbankverwaltung (DBA)

KURS 7, 21 Stunden

Was Sie lernen werden

  • Erstellen, Abfragen und Konfigurieren von Datenbanken und Zugriff auf und Aufbau von Systemobjekten wie z.B. Tabellen.

  • Führen Sie die grundlegende Datenbankverwaltung durch, einschließlich der Sicherung und Wiederherstellung von Datenbanken sowie der Verwaltung von Benutzerrollen und Berechtigungen.

  • Überwachen und optimieren Sie wichtige Aspekte der Datenbankleistung.

  • Beheben Sie Probleme mit der Datenbank wie Konnektivität, Anmeldung und Konfiguration und automatisieren Sie Funktionen wie Berichte, Benachrichtigungen und Alarme.

ETL und Datenpipelines mit Shell, Airflow und Kafka

ETL und Datenpipelines mit Shell, Airflow und Kafka

KURS 8, 18 Stunden

Was Sie lernen werden

  • Beschreiben und vergleichen Sie Extrahieren, Transformieren, Laden (ETL)-Prozesse und Extrahieren, Laden, Transformieren (ELT)-Prozesse.

  • Erklären Sie die Batch- und die gleichzeitige Ausführung.

  • Implementierung des ETL-Workflows durch Bash- und Python-Funktionen.

  • Beschreiben Sie die Komponenten, Prozesse, Tools und Technologien der Datenpipeline.

Grundlagen des Data Warehouse

Grundlagen des Data Warehouse

KURS 9, 16 Stunden

Was Sie lernen werden

  • Berufsreife Data-Warehousing-Kenntnisse in nur 6 Wochen, unterstützt durch praktische Erfahrung und ein IBM-Zertifikat.

  • Entwerfen und bestücken Sie ein Data Warehouse und modellieren und fragen Sie Daten mit CUBE, ROLLUP und materialisierten Ansichten ab.

  • Identifizieren Sie gängige Datenanalyse- und Business Intelligence-Tools und -Anbieter und erstellen Sie Datenvisualisierungen mit IBM Cognos Analytics.

  • Wie man Daten entwirft und in ein Data Warehouse lädt, Aggregationsabfragen schreibt, materialisierte Abfragetabellen erstellt und ein Analyse-Dashboard erstellt.

Kompetenzen, die Sie erwerben

Kategorie: Data Warehousing
Kategorie: Stern-Schema
Kategorie: Datenmarkt
Kategorie: Schneeflocken-Schema
Kategorie: Daten-Seen
Kategorie: IBM DB2
Kategorie: SQL
Kategorie: Validierung von Daten
Kategorie: Bereinigung von Daten
Kategorie: Datenmodellierung
Kategorie: Integration von Daten
Kategorie: Datenarchitektur
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Datenbank-Design
Kategorie: PostgreSQL
BI-Dashboards mit IBM Cognos Analytics und Google Looker

BI-Dashboards mit IBM Cognos Analytics und Google Looker

KURS 10, 12 Stunden

Was Sie lernen werden

  • Erforschung des Zwecks von Analyse- und Business Intelligence (BI)-Tools

  • Entdecken Sie die Möglichkeiten von IBM Cognos Analytics und Google Looker Studio

  • Zeigen Sie Ihr Können bei der Analyse von DB2-Daten mit IBM Cognos Analytics

  • Erstellung und gemeinsame Nutzung interaktiver Dashboards mit IBM Cognos Analytics und Google Looker Studio

Kompetenzen, die Sie erwerben

Kategorie: Looker (Software)
Kategorie: IBM Kognos-Analytik
Kategorie: Software zur Datenvisualisierung
Kategorie: Interaktive Datenvisualisierung
Kategorie: Dashboard
Kategorie: Datenvisualisierung
Kategorie: Präsentation der Daten
Kategorie: Business Intelligence Software
Kategorie: Business Intelligence
Kategorie: Analytik
Einführung in NoSQL-Datenbanken

Einführung in NoSQL-Datenbanken

KURS 11, 18 Stunden

Was Sie lernen werden

  • Unterscheiden Sie zwischen den vier Hauptkategorien von NoSQL-Repositories.

  • Beschreiben Sie die Merkmale, Funktionen, Vorteile, Einschränkungen und Anwendungen der gängigsten Big Data-Verarbeitungstools.

  • Führen Sie allgemeine Aufgaben mit MongoDB-Aufgaben durch, einschließlich Erstellen, Lesen, Aktualisieren und Löschen (CRUD).

  • Führen Sie Keyspace-, Tabellen- und CRUD-Operationen in Cassandra aus.

Einführung in Big Data mit Spark und Hadoop

Einführung in Big Data mit Spark und Hadoop

KURS 12, 20 Stunden

Was Sie lernen werden

  • Erklären Sie die Auswirkungen von Big Data, einschließlich Anwendungsfällen, Tools und Verarbeitungsmethoden.

  • Beschreiben Sie die Architektur, das Ökosystem, die Praktiken und die benutzerbezogenen Anwendungen von Apache Hadoop, einschließlich Hive, HDFS, HBase, Spark und MapReduce.

  • Wenden Sie die Grundlagen der Spark-Programmierung an, einschließlich der Grundlagen der parallelen Programmierung für DataFrames, Datensätze und Spark SQL.

  • Verwenden Sie die RDDs und Datensätze von Spark, optimieren Sie Spark SQL mit Catalyst und Tungsten und nutzen Sie die Optionen der Entwicklungs- und Laufzeitumgebung von Spark.

Kompetenzen, die Sie erwerben

Kategorie: Apache Spark
Kategorie: Verteiltes Rechnen
Kategorie: Große Daten
Kategorie: Apache Hive
Kategorie: Fehlersuche
Kategorie: Apache Hadoop
Kategorie: Skalierbarkeit
Kategorie: PySpark
Kategorie: Datenverarbeitung
Kategorie: Leistungsoptimierung
Kategorie: Docker (Software)
Kategorie: IBM Wolke
Kategorie: Entwicklungsumgebung
Kategorie: Datenumwandlung
Kategorie: Kubernetes
Maschinelles Lernen mit Apache Spark

Maschinelles Lernen mit Apache Spark

KURS 13, 16 Stunden

Was Sie lernen werden

  • Beschreiben Sie ML, erläutern Sie seine Rolle im Data Engineering, fassen Sie generative KI zusammen, diskutieren Sie die Einsatzmöglichkeiten von Spark und analysieren Sie ML-Pipelines und Modellpersistenz.

  • Bewerten Sie ML-Modelle, unterscheiden Sie zwischen Regressions-, Klassifizierungs- und Clustering-Modellen und vergleichen Sie Data Engineering-Pipelines mit ML-Pipelines.

  • Konstruieren Sie die Datenanalyseprozesse mit Spark SQL und führen Sie Regression, Klassifizierung und Clustering mit SparkML durch.

  • Demonstrieren Sie die Verbindung zu Spark-Clustern, bauen Sie ML-Pipelines auf, führen Sie die Merkmalsextraktion und -umwandlung durch, und modellieren Sie die Persistenz.

Kompetenzen, die Sie erwerben

Kategorie: Apache Spark
Kategorie: Maschinelles Lernen
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Datenumwandlung
Kategorie: Überwachtes Lernen
Kategorie: Bewertung des Modells
Kategorie: Unüberwachtes Lernen
Kategorie: Angewandtes maschinelles Lernen
Kategorie: Daten-Pipelines
Kategorie: Regressionsanalyse
Kategorie: PySpark
Kategorie: Generative KI
Kategorie: Apache Hadoop
Kategorie: Datenverarbeitung
Kategorie: Klassifizierungsalgorithmen
Data Engineering Capstone Projekt

Data Engineering Capstone Projekt

KURS 14, 18 Stunden

Was Sie lernen werden

  • Beherrschen Sie die Fähigkeiten, die für eine Einstiegsposition in der Datentechnik erforderlich sind.

  • Entwerfen und implementieren Sie verschiedene Konzepte und Komponenten im Lebenszyklus der Datentechnik, wie z.B. Daten-Repositories.

  • Präsentieren Sie Ihre Kenntnisse im Umgang mit relationalen Datenbanken, NoSQL-Datenspeichern, Big Data-Engines, Data Warehouses und Datenpipelines.

  • Wenden Sie Kenntnisse in Linux-Shell-Skripting, SQL und Python Programmiersprachen auf Data Engineering Probleme an.

Kompetenzen, die Sie erwerben

Kategorie: Data Warehousing
Kategorie: Apache Airflow
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: MongoDB
Kategorie: Datenbank-Design
Kategorie: NoSQL
Kategorie: Daten-Pipelines
Kategorie: Dashboard
Kategorie: Apache Spark
Kategorie: Datenbanken
Kategorie: Große Daten
Kategorie: SQL
Kategorie: Analytik
Kategorie: IBM Kognos-Analytik
Kategorie: PySpark
Kategorie: Python-Programmierung
Kategorie: Datenarchitektur
Kategorie: IBM DB2
Kategorie: Business Intelligence
Kategorie: Relationale Datenbanken

Was Sie lernen werden

  • Nutzung verschiedener generativer KI-Tools und -Techniken in branchenübergreifenden Data-Engineering-Prozessen

  • Implementierung verschiedener Data-Engineering-Prozesse wie Datengenerierung, -anreicherung und -anonymisierung mit generativen KI-Tools

  • Üben Sie Ihre generativen KI-Fähigkeiten in praktischen Übungen und Projekten zum Entwurf von Data-Warehouse-Schemata und zur Einrichtung der Infrastruktur

  • Bewerten Sie Fallstudien aus der Praxis, die die erfolgreiche Anwendung von generativer KI für ETL und Datenrepositorien zeigen

Kompetenzen, die Sie erwerben

Kategorie: Datenbank-Design
Kategorie: Generative KI
Kategorie: Daten-Ethik
Kategorie: Daten-Synthese
Kategorie: Data Mining
Kategorie: Datenanalyse
Kategorie: Extrahieren, Transformieren, Laden
Kategorie: Data Warehousing
Kategorie: Schneeflocken-Schema
Kategorie: Daten-Infrastruktur
Kategorie: Künstliche Intelligenz
Kategorie: Stern-Schema
Kategorie: Faltungsneuronale Netze
Kategorie: Generative Modellarchitekturen
Kategorie: AI-Förderung
Kategorie: Abfragesprachen
Kategorie: Verantwortungsvolle AI
Kategorie: Schnelles Engineering
Kategorie: Datenarchitektur
Kategorie: Daten-Pipelines

Was Sie lernen werden

  • Beschreiben Sie die Rolle eines Dateningenieurs und einige Karrieremöglichkeiten sowie die voraussichtlichen Chancen in diesem Bereich.

  • Erläutern Sie, wie Sie eine Grundlage für die Stellensuche schaffen, einschließlich der Recherche von Stellenangeboten, dem Verfassen eines Lebenslaufs und der Erstellung einer Arbeitsmappe.

  • Fassen Sie zusammen, was ein Bewerber während eines typischen Vorstellungsgesprächszyklus erwarten kann, welche Arten von Vorstellungsgesprächen es gibt und wie man sich auf Vorstellungsgespräche vorbereitet.

  • Erklären Sie, wie Sie ein effektives Vorstellungsgespräch führen, einschließlich Techniken zur Beantwortung von Fragen und einer professionellen persönlichen Präsentation.

Kompetenzen, die Sie erwerben

Kategorie: Professionelle Netzwerkarbeit
Kategorie: Daten-Pipelines
Kategorie: Berufliche Entwicklung
Kategorie: Aufbau von Beziehungen
Kategorie: Daten-Infrastruktur
Kategorie: Verbale Kommunikationsfähigkeiten
Kategorie: Data Warehousing
Kategorie: Problemlösung
Kategorie: Professionalität
Kategorie: Technische Kommunikation
Kategorie: Datenverarbeitung
Kategorie: Datenspeicherung
Kategorie: Kommunikations-Strategien

Erwerben Sie ein Karrierezertifikat.

Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.

Auf einen Abschluss hinarbeiten

Wenn Sie dieses Berufsbezogenes Zertifikatabschließen, können Sie sich Ihr Wissen möglicherweise anrechnen lassen, wenn Sie zu einem der folgenden Online-Studiengänge zugelassen werden und sich dort einschreiben.¹

ACE-Logo

Dieser Berufsbezogenes Zertifikat ist ACE®-empfohlen. Teilnehmende US-amerikanischen Colleges und Universitäten vergeben Credits dafür. Hinweis: Die Entscheidung bezüglich spezifischer Credit-Empfehlungen liegt bei den einzelnen Institutionen. 

Dozenten

IBM Skills Network Team
91 Kurse1.872.790 Lernende
Muhammad Yahya
IBM
5 Kurse103.627 Lernende
Abhishek Gagneja
IBM
6 Kurse279.540 Lernende

von

IBM

Warum entscheiden sich Menschen für Coursera für ihre Karriere?

Coursera Plus

Neue Karrieremöglichkeiten mit Coursera Plus

Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten

Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.

Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online

Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.

Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.

Häufig gestellte Fragen

¹ Median salary and job opening data are sourced from Lightcast™ Job Postings Report. Content Creator, Machine Learning Engineer and Salesforce Development Representative (1/1/2024 - 12/31/2024) All other job roles (4/1/2025 - 4/1/2026)