Data-Engineering-Kurse können Ihnen helfen zu lernen, wie Datenpipelines aufgebaut, Systeme integriert und Daten effizient verarbeitet werden. Sie können Fähigkeiten in ETL-Prozessen, Datenmodellierung, Orchestrierung und Umgang mit großen Datenmengen aufbauen. Viele Kurse stellen Tools und Plattformen für moderne Dateninfrastrukturen vor.

Kompetenzen, die Sie erwerben: AWS Kinesis, AWS SageMaker, AWS CloudFormation, Data Quality, Docker (Software), Data Pipelines, AWS Identity and Access Management (IAM), Data Security, Database Systems, Databases, Cloud-Native Computing, Version Control, Apache Spark, Cloud Engineering, Apache Airflow, Data Modeling, Cloud Security, Data Storage, Cloud Storage, Data Processing
Anfänger · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: Real Time Data, Data Lakes, Model Deployment, Google Cloud Platform, Feature Engineering, PySpark, Data Pipelines, Cloud Storage, Data Import/Export, Dataflow, Big Data, Apache Spark, Apache Hadoop, Dashboard, Data Architecture, Data Governance, Apache Kafka, Data Infrastructure, Tensorflow, Data Warehousing
Mittel · Berufsbezogenes Zertifikat · 3–6 Monate

Kompetenzen, die Sie erwerben: AWS Kinesis, Data Engineering, Amazon Redshift, Apache Kafka, Cloud Computing Architecture, Data Lakes, Real Time Data, Amazon Elastic Compute Cloud, Data Management, Apache Hive, Data Visualization Software, Cloud Storage, Amazon S3, Data Integration, Data Architecture, Data Migration, Performance Tuning, Serverless Computing, Database Architecture and Administration, AWS Identity and Access Management (IAM)
Mittel · Spezialisierung · 3–6 Monate

Duke University
Kompetenzen, die Sie erwerben: Data Visualization Software, PySpark, Data Visualization, Data Storytelling, Statistical Visualization, Site Reliability Engineering, Docker (Software), Databricks, Containerization, Interactive Data Visualization, Plot (Graphics), Plotly, Data Pipelines, Matplotlib, Kubernetes, Apache Spark, Apache Hadoop, Big Data, Data Science, Python Programming
Mittel · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: Databricks, CI/CD, Apache Spark, Microsoft Azure, Data Governance, Data Lakes, Data Architecture, Integration Testing, Real Time Data, Data Integration, PySpark, Data Pipelines, Data Management, Automation, Data Storage, Jupyter, File Systems, Development Testing, Data Processing, Data Quality
Mittel · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: Data Integration, Performance Tuning, Serverless Computing, Database Architecture and Administration, Data Quality, Data Transformation
Anfänger · Kurs · 1–3 Monate

Edureka
Kompetenzen, die Sie erwerben: Data Storytelling, SQL, Data Engineering, Data Presentation, Key Performance Indicators (KPIs), Star Schema, Dashboard, Data Modeling, Data Quality, Business Analytics, Database Design, Data Mart, Business Intelligence, Data Validation, Analytics, YAML, Data Pipelines, Data Transformation, Performance Tuning, Analysis
Mittel · Spezialisierung · 1–3 Monate

Kompetenzen, die Sie erwerben: Dashboard, IBM Cognos-Analytik, Datenbanken, Prädiktive Modellierung, Apache Spark, Operative Datenbanken, NoSQL, MongoDB, MySQL, IBM DB2, Big Data, Data-Warehousing, Python-Programmierung, SQL, Datenarchitektur, Daten-Pipelines, Angewandtes maschinelles Lernen, PostgreSQL, Auszug, Relationale Datenbanken
Fortgeschritten · Kurs · 1–3 Monate

Kompetenzen, die Sie erwerben: Dashboard, IBM Cognos-Analytik, Datenbank Management, IBM DB2, Linux-Befehle, MySQL, Datenbank-Design, Datenbankadministration, Apache Kafka, Relationale Datenbanken, SQL, Shell-Skript, Data-Warehousing, Datenspeicher, Apache Airflow, Datenbankarchitektur und -verwaltung, Daten-Pipelines, Datenvisualisierung, Auszug, Bash (Skriptsprache)
Anfänger · Berufsbezogenes Zertifikat · 3–6 Monate

Kompetenzen, die Sie erwerben: Dashboard, Data Preprocessing, Apache Airflow, Star Schema, Data Storytelling, Process Mapping, Extract, Transform, Load, Data Transformation, SQL, Data Pipelines, JSON, Apache Kafka, Data Warehousing, Data Modeling, Pandas (Python Package), Business Intelligence, Data Validation, Data Quality, Performance Improvement, Python Programming
Mittel · Spezialisierung · 3–6 Monate

Kompetenzen, die Sie erwerben: Apache Spark, Datenanalyse, Strategische Entscheidungsfindung, Skalierbarkeit, Big Data, Apache Hive, Datenmanagement, Daten-Integration, Data-Warehousing, Daten-Pipelines, Apache Hadoop, Auszug, Datenumwandlung, Datenverarbeitung
Mittel · Kurs · 1–4 Wochen

Duke University
Kompetenzen, die Sie erwerben: Serverloses Rechnen, Daten-Seen, Cloud-Technologien, Rust (Programmiersprache), Big Data, NumPy, Cloud-natives Computing, Cloud-Speicher, Google Cloud-Platform, Befehlszeilen-Schnittstelle, Verteiltes Rechnen, Cloud Computing, Python-Programmierung, Daten-Governance, Software-Ingenieur, Daten-Pipelines, Amazon Webdienste, Auszug
Mittel · Kurs · 1–4 Wochen