Associate Data Practitioner

Question 41

あなたはオンライン小売企業に勤務しています。あなたの会社では、顧客の購入データをCSVファイルで収集し、10分ごとにCloud Storageにプッシュしています。データは変換され、分析のためにBigQueryにロードされる必要があります。変換処理には、データのクリーニング、重複の削除、BigQueryの別テーブルにある商品情報によるエンリッチメントが含まれます。ファイルがCloud Storageにロードされるとすぐにデータ処理を開始する、低オーバーヘッドなソリューションを実装する必要があります。どうすべきですか?

A.
Cloud Composerセンサーを使用して、Cloud Storageへのファイルのロードを検出します。Dataprocクラスタを作成し、Composerタスクを使用してクラスタ上でジョブを実行し、データを処理してBigQueryにロードします。
B.
Cloud Composerで有向非巡回グラフ(DAG)をスケジュールし、1時間ごとにCloud StorageからBigQueryへデータをバッチロードし、BigQueryでSQLを使用してデータを処理します。
C.
Dataflowを使用してストリーミングパイプラインを実装し、Pub/SubからのOBJECT_FINALIZE通知を使用してCloud Storageからデータを読み取り、変換を実行し、データをBigQueryに書き込みます。
D.
Cloud Data Fusionジョブを作成して、Cloud StorageからBigQueryへデータを処理およびロードします。Pub/SubにOBJECT_FINALIZE通知を作成し、新しいファイルがロードされるとすぐにCloud Run関数をトリガーしてCloud Data Fusionジョブを開始します。
Question 42

あなたは住宅保険会社に勤務しています。公開されている暴風イベントデータセットを使用して、特定地域のグラフを含むリスクレポートを頻繁に作成・保存するよう依頼されています。新しいデータが利用可能になったときに、リスクレポートを迅速に作成・再実行できるようにしたいと考えています。どうすべきですか?

A.
暴風イベントデータセットをCSVファイルとしてエクスポートします。そのファイルをGoogleスプレッドシートにインポートし、ワークシートのセルデータを使用してグラフを作成します。
B.
暴風イベントデータセットをあなたのBigQueryプロジェクトにコピーします。BigQuery Studioを使用してデータをクエリし、Looker Studioで可視化します。
C.
BigQuery StudioでSQLを使用して暴風イベントデータセットを参照し、クエリを実行します。結果をGoogleスプレッドシートにエクスポートし、ワークシートのセルデータを使用してグラフを作成します。
D.
Colab EnterpriseノートブックでSQLを使用して暴風イベントデータセットを参照し、クエリを実行します。テーブル結果を表示し、Markdownで文書化し、Matplotlibを使用してグラフを作成します。
Question 43

あなたの会社は現在、オンプレミスのネットワークファイルシステム(NFS)を使用しており、データをGoogle Cloudに移行しています。データ移行に使用する帯域幅を制御し、移行状況に関する詳細なレポートを取得できるようにしたいと考えています。どうすればよいですか?

A.
Transfer Appliance を使用する。
B.
Cloud Storage FUSE を使用する。
C.
Storage Transfer Service を使用する。
D.
gcloud storage コマンドを使用する。
Question 44

あなたはLookerアナリストです。会社のデータベースに対して実行されるSQLを生成する新しいフィールドをLookerレポートに追加する必要があります。あなたにはDevelop権限がありません。どうすべきですか?

A.
LookMLレイヤーで新しいフィールドを作成し、レポートを更新して、フィールドピッカーから新しいフィールドを選択します。
B.
Looker Studioの「フィールドを追加」オプションを使用して計算フィールドを作成し、レポートに追加します。
C.
Lookerのフィールドピッカーからテーブル計算を作成し、レポートに追加します。
D.
Lookerのフィールドピッカーからカスタムフィールドを作成し、レポートに追加します。
Question 45

あなたは、データ処理中に作成される一時ファイルを保存するCloud Storageバケットを管理しています。これらの一時ファイルは7日間のみ必要で、その後は不要になります。ストレージコストを削減し、バケットを整理された状態に保つために、7日を超えたこれらのファイルを自動的に削除したいと考えています。どうすべきですか?

A.
7日を超えたファイルを削除するために、週次でCloud Run関数を呼び出すCloud Schedulerジョブを設定する。
B.
7日を超えたオブジェクトを自動的に削除するCloud Storageライフサイクルルールを設定する。
C.
Dataflowを使用して、週次で実行され、ファイルの経過日数に基づいてファイルを削除するバッチ処理を開発する。
D.
7日を超えたファイルを削除するために、日次で実行されるCloud Run関数を作成する。