Associate Data Practitioner

Question 61

あなたのチームは、BigQueryに保存されている大規模なデータセットを分析して、ユーザー行動の傾向を特定する必要があります。この分析には、複雑な統計計算、Pythonパッケージの使用、および視覚化が含まれます。分析を開発し共有するための、マネージドな共同作業環境を推奨する必要があります。何を推奨しますか?

A.
Colab Enterprise ノートブックを作成し、そのノートブックをBigQueryに接続します。ノートブックをチームと共有します。Colab Enterpriseでデータを分析し、視覚化を生成します。
B.
BigQuery MLを使用して統計モデルを作成します。クエリをチームと共有します。Looker Studioでデータを分析し、視覚化を生成します。
C.
Looker Studio ダッシュボードを作成し、そのダッシュボードをBigQueryに接続します。ダッシュボードをチームと共有します。Looker Studioでデータを分析し、視覚化を生成します。
D.
コネクテッドシートを使用してGoogle スプレッドシートをBigQueryに接続します。Google スプレッドシートをチームと共有します。Google スプレッドシートでデータを分析し、視覚化を生成します。
Question 62

あなたの組織はBigQueryに複数のデータセットを保有しています。これらのデータセットを外部パートナーと共有し、パートナーがデータを自身のプロジェクトにコピーすることなくSQLクエリを実行できるようにする必要があります。各パートナーのデータは、それぞれ専用のBigQueryデータセットに整理されています。各パートナーは自身のデータにのみアクセスできる必要があります。Googleの推奨プラクティスに従ってデータを共有したいと考えています。どうすべきでしょうか?

A.
Analytics Hubを使用して、各パートナーデータセットごとにプライベートデータエクスチェンジにリスティングを作成します。各パートナーがそれぞれのリスティングにサブスクライブできるようにします。
B.
Dataflowジョブを作成し、各BigQueryデータセットからデータを読み取り、各パートナー専用のPub/Subトピックにデータをプッシュします。各パートナーにpubsub.subscriber IAMロールを付与します。
C.
BigQueryデータをCloud Storageバケットにエクスポートします。パートナーにバケットに対するstorage.objectUser IAMロールを付与します。
D.
パートナーにBigQueryプロジェクトに対するbigquery.user IAMロールを付与します。
Question 63

あなたの組織は、既存のエンタープライズデータウェアハウスをBigQueryに移行することを決定しました。既存のデータパイプラインツールは、すでにBigQueryへのコネクタをサポートしています。移行速度を最適化するデータ移行アプローチを特定する必要があります。何をすべきですか?

A.
既存の環境からCloud Storageへのデータ転送を容易にするために、一時的なファイルシステムを作成します。Storage Transfer Serviceを使用して、データをBigQueryに移行します。
B.
Cloud Data Fusionのウェブインターフェースを使用してデータパイプラインを構築します。パイプラインのオーケストレーションを容易にする有向非巡回グラフ(DAG)を作成します。
C.
既存のデータパイプラインツールのBigQueryコネクタを使用して、データマッピングを再構成します。
D.
BigQuery Data Transfer Serviceを使用してデータパイプラインを再作成し、データをBigQueryに移行します。
Question 64

あなたの組織では、BigQueryに保存されたデータに対して変換処理を行うために、スケジュールされたクエリを使用しています。スケジュールされたクエリの1つが失敗したことを発見しました。できるだけ迅速に問題をトラブルシューティングする必要があります。何をすべきですか?

A.
Cloud Loggingのログエクスプローラページに移動します。フィルタを使用して失敗したジョブを見つけ、エラー詳細を分析します。
B.
gcloud CLIを使用してログシンクを設定し、BigQuery監査ログをBigQueryにエクスポートします。それらのログをクエリして、失敗したジョブIDに関連するエラーを特定します。
C.
管理者にBigQuery information_schemaへのアクセスを要求します。失敗したジョブIDでジョブビューをクエリし、エラー詳細を分析します。
D.
Google Cloudコンソールの「スケジュールされたクエリ」ページに移動します。失敗したジョブを選択し、エラー詳細を分析します。
問題65

あなたのチームは、指標を可視化するためにGoogle広告プラットフォームを使用しています。より詳細なインサイトを得るために、データをBigQueryにエクスポートしたいと考えています。履歴データの一括転送を実行し、データを毎日自動的に更新する必要があります。ローコードでサーバーレス、かつ最小限のメンテナンスで済むソリューションを求めています。どうすべきでしょうか?

A.
BigQuery Data Transfer Service を使用して履歴データをBigQueryにエクスポートします。日々の自動化にはCloud Composerを使用します。
B.
Storage Transfer Service を使用して履歴データをCloud Storageにエクスポートします。日々の自動化には、Pub/Subを使用してDataflowテンプレートをトリガーし、データをロードします。
C.
履歴データをCSVファイルとしてエクスポートします。分析のためにファイルをBigQueryにインポートします。日々の自動化にはCloud Composerを使用します。
D.
BigQuery Data Transfer Service を使用して履歴データをBigQueryにエクスポートします。日々の自動化にはBigQuery Data Transfer Serviceを使用します。