Las canalizaciones de datos suelen realizarse según uno de los siguientes paradigmas: extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, gráficos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los alumnos obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Offered By
About this Course
What you will learn
Revisar los diferentes métodos de carga de datos: EL, ELT y ETL, y cuándo corresponde usarlos
Ejecutar Hadoop en Dataproc, usar Cloud Storage y optimizar trabajos de Dataproc
Usar Dataflow para compilar sus canalizaciones de procesamiento de datos
Administrar canalizaciones de datos con Data Fusion y Cloud Composer
Offered by
Syllabus - What you will learn from this course
Introducción
Introducción a Building Batch Data Pipelines
Ejecución de Spark en Dataproc
Procesamiento de datos sin servidor con Dataflow
Administración de canalizaciones de datos con Cloud Data Fusion y Cloud Composer
Resumen del curso
Reviews
- 5 stars73.68%
- 4 stars23.68%
- 3 stars2.63%
TOP REVIEWS FROM BUILDING BATCH DATA PIPELINES ON GCP EN ESPAÑOL
Útil para comprender las herramientas que te da GCP para crear grandes canalizaciones de datos
Excelente curso, muy bien explicado, las parcticas son muy utiles
excelente material, buena explicación de conceptos claves para la creación de pipelines, y porque elegir dataflow en vez de datafusion
Frequently Asked Questions
Can I preview a course before enrolling?
What will I get when I enroll?
When will I receive my Course Certificate?
Why can’t I audit this course?
Is financial aid available?
More questions? Visit the Learner Help Center.