Associate Data Practitioner

Question 36

あなたの組織では、Pub/Subに毎秒数千件到着するイベントのほぼリアルタイム分析を実装する必要があります。受信メッセージには変換が必要です。開発時間を最小限に抑えながら、データを処理、変換し、BigQueryにロードするパイプラインを設定する必要があります。どうすればよいですか?

A.
Google提供のDataflowテンプレートを使用して、Pub/Subメッセージを処理し、変換を実行し、結果をBigQueryに書き込みます。
B.
Cloud Data Fusionインスタンスを作成し、Pub/Subをソースとして設定します。Data Fusionを使用してPub/Subメッセージを処理し、変換を実行し、結果をBigQueryに書き込みます。
C.
Cloud Storageサブスクリプションを使用して、Pub/SubからCloud Storageにデータをロードします。Dataprocクラスタを作成し、PySparkを使用してCloud Storageで変換を実行し、結果をBigQueryに書き込みます。
D.
Cloud Run関数を使用して、Pub/Subメッセージを処理し、変換を実行し、結果をBigQueryに書き込みます。
Question 37

あなたの組織では、過去の顧客注文データを保存する必要があります。データは分析のために月に1回だけアクセスされ、アクセス時には数秒以内にすぐに利用可能である必要があります。データの迅速な取得を保証しつつ、ストレージコストを最小限に抑えるストレージクラスを選択する必要があります。どの方法を選択すべきですか?

A.
Cloud StorageにNearlineストレージを使用してデータを保存する。
B.
Cloud StorageにColdlineストレージを使用してデータを保存する。
C.
Cloud StorageにStandardストレージを使用してデータを保存する。
D.
Cloud StorageにArchiveストレージを使用してデータを保存する。
Question 38

あなたは、Cloud Storage に保存されているウェブサイトのトラフィックログを処理し、処理されたデータを BigQuery に書き込む Dataflow パイプラインを持っています。このパイプラインが断続的に失敗していることに気づきました。この問題をトラブルシューティングする必要があります。どうすればよいですか?

A.
Cloud Logging を使用して、パイプラインのログ内のエラーグループを特定します。Cloud Monitoring を使用して、各グループのエラー数を追跡するダッシュボードを作成します。
B.
Cloud Logging を使用して、パイプラインのエラーログを表示するチャートを作成します。Metrics Explorer を使用して、チャートからの所見を検証します。
C.
Cloud Logging を使用して、パイプラインのログ内のエラーメッセージを表示します。Cloud Monitoring を使用して、CPU使用率やメモリ使用量など、パイプラインのメトリクスを分析します。
D.
Dataflow ジョブ監視インターフェースを使用して、パイプラインのステータスを1時間ごとに確認します。Cloud Profiler を使用して、CPU使用率やメモリ使用量など、パイプラインのメトリクスを分析します。
Question 39

あなたの組織のビジネスアナリストは、ストリーミングデータへのほぼリアルタイムのアクセスを必要としています。しかし、彼らはダッシュボードのクエリの読み込みが遅いと報告しています。BigQueryのクエリパフォーマンスを調査した結果、遅いダッシュボードクエリは複数の結合と集計を実行していることがわかりました。 ダッシュボードの読み込み時間を改善し、ダッシュボードのデータが可能な限り最新であることを保証する必要があります。何をすべきですか?

A.
BigQueryのクエリ結果キャッシュを無効にする。
B.
パラメータ化されたデータ型を使用するようにスキーマを変更する。
C.
中間結果を計算して保存するために、スケジュールされたクエリを作成する。
D.
マテリアライズドビューを作成する。
Question 40

複数のGoogle Cloudリージョンにあるアプリケーションからイベント情報をBigQueryにストリーミングし、ほぼリアルタイムで分析するためのデータパイプラインを作成する必要があります。データはロード前に変換が必要です。ビジュアルインターフェースを使用してパイプラインを作成したいと考えています。どうすべきでしょうか?

A.
イベント情報をPub/Subトピックにプッシュします。Dataflowジョブビルダーを使用してDataflowジョブを作成します。
B.
イベント情報をPub/Subトピックにプッシュします。Pub/Subトピックをサブスクライブし、変換を適用し、データをBigQueryに挿入するCloud Run関数を作成します。
C.
イベント情報をPub/Subトピックにプッシュします。Pub/SubでBigQueryサブスクリプションを作成します。
D.
イベント情報をCloud Storageにプッシュし、BigQueryに外部テーブルを作成します。変換を適用するために1日1回実行されるBigQueryスケジュールジョブを作成します。