通常、データ パイプラインは、「抽出、読み込み」、「抽出、読み込み、変換」、「抽出、変換、読み込み」のいずれかの枠組みに分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。受講者には、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行っていただきます。
Offered By
About this Course
2,005 recent views
Flexible deadlines
Reset deadlines in accordance to your schedule.
Shareable Certificate
Earn a Certificate upon completion
100% online
Start instantly and learn at your own schedule.
Intermediate Level
Approx. 17 hours to complete
Japanese
What you will learn
データ読み込みのさまざまな方法の確認: EL、ELT、ETL について、また何をどのタイミングで使用するか
Dataproc での Hadoop の実行、Cloud Storage の活用、Dataproc ジョブの最適化
Dataflow を使用したデータ処理パイプラインの構築
Data Fusion と Cloud Composer を使用したデータ パイプラインの管理
Flexible deadlines
Reset deadlines in accordance to your schedule.
Shareable Certificate
Earn a Certificate upon completion
100% online
Start instantly and learn at your own schedule.
Intermediate Level
Approx. 17 hours to complete
Japanese
Offered by
Syllabus - What you will learn from this course
1 minute to complete
はじめに
1 minute to complete
1 video (Total 1 min)
23 minutes to complete
バッチデータ パイプラインの構築の概要
23 minutes to complete
6 videos (Total 21 min)
2 hours to complete
Dataproc での Spark の実行
2 hours to complete
11 videos (Total 48 min)
10 hours to complete
Dataflow を使用したサーバーレスのデータ処理
10 hours to complete
14 videos (Total 36 min)
Frequently Asked Questions
Can I preview a course before enrolling?
What will I get when I enroll?
When will I receive my Course Certificate?
Why can’t I audit this course?
More questions? Visit the Learner Help Center.