Associate Data Practitioner

Question 21

あなたの組織では、リアルタイムの金融取引を処理するためにDataflowパイプラインを使用しています。Dataflowジョブの1つが失敗したことを発見しました。できるだけ早く問題をトラブルシューティングする必要があります。何をすべきですか?

A.
Cloud Monitoringダッシュボードを設定して、データスループット、エラー率、リソース使用率などの主要なDataflowメトリクスを追跡する。
B.
カスタムスクリプトを作成して、Dataflow APIを定期的にポーリングしてジョブのステータス更新を取得し、エラーが特定された場合はメールアラートを送信する。
C.
Google CloudコンソールのDataflowジョブページに移動する。ジョブログとワーカログを使用してエラーを特定する。
D.
gcloud CLIツールを使用してジョブメトリクスとログを取得し、エラーやパフォーマンスのボトルネックがないか分析する。
Question 22

あなたの会社では、Lookerを使用してレポートを生成し、さまざまな関係者と共有しています。複数のビジュアライゼーションを含む複雑なダッシュボードがあり、これを特定の関係者に定期的に配信する必要があります。その際、受信者ごとにカスタマイズされたフィルターを適用する必要があります。このカスタマイズされたダッシュボードの配信を自動化するための、効率的でスケーラブルなソリューションが必要です。Googleが推奨するアプローチに従いたいと考えています。どうすべきですか?

A.
関係者ごとに事前定義されたフィルターを持つ個別のLookMLモデルを作成し、Lookerスケジューラを使用してダッシュボードをスケジュールします。
B.
Looker Python SDKを使用してスクリプトを作成し、ユーザー属性フィルター値を設定します。関係者ごとに新しいスケジュールプランを生成します。
C.
Lookerダッシュボードをカスタムウェブアプリケーションに埋め込み、アプリケーションのスケジューリング機能を使用して、パーソナライズされたフィルター付きのレポートを送信します。
D.
ダッシュボードでユーザー属性フィルターを使用し、Lookerスケジューラを使って、各関係者の属性に基づいてパーソナライズされたフィルター付きのダッシュボードを送信します。
Question 23

あなたの会社では、小型家電から送られてくるJSON形式のテレメトリデータを処理するために、ほぼリアルタイムのストリーミングパイプラインを構築しています。Pub/Subトピックに到着するメッセージを処理し、シリアル番号フィールドの文字を大文字に変換し、その結果をBigQueryに書き込む必要があります。マネージドサービスを使用し、基盤となる変換処理の実装に必要なコードを最小限に抑えたいと考えています。どうすべきでしょうか?

A.
Pub/Sub から BigQuery へのサブスクリプションを使用し、結果を直接 BigQuery に書き込み、5分ごとに変換クエリを実行するようにスケジュールする。
B.
Pub/Sub から Cloud Storage へのサブスクリプションを使用し、バケットにオブジェクトが到着したときにトリガーされる Cloud Run サービスを作成し、変換を実行して結果を BigQuery に書き込む。
C.
UDF (ユーザー定義関数) を使用して「Pub/Sub to BigQuery」Dataflow テンプレートを利用し、結果を BigQuery に書き込む。
D.
Pub/Sub プッシュサブスクリプションを使用し、メッセージを受け付け、変換を実行し、結果を BigQuery に書き込む Cloud Run サービスを作成する。
Question 24

あなたはサブスクリプションベースのサービスの顧客解約を予測しています。BigQueryには、人口統計情報、サブスクリプション情報、エンゲージメント指標を含む50PBの過去の顧客データセットがあります。最小限のオーバーヘッドで解約予測モデルを構築したいと考えています。Google推奨のアプローチに従いたい場合、どうすべきですか?

A.
BigQueryからローカルマシンにデータをエクスポートします。Jupyterノートブックでscikit-learnを使用して解約予測モデルを構築します。
B.
Dataprocを使用してSparkクラスターを作成します。クラスター内でSpark MLlibを使用して解約予測モデルを構築します。
C.
BigQueryに接続されたLookerダッシュボードを作成します。LookMLを使用して解約を予測します。
D.
JupyterノートブックでBigQuery Pythonクライアントライブラリを使用してBigQuery内のデータをクエリし、前処理します。BigQuery MLのCREATE MODELステートメントを使用して解約予測モデルを訓練します。
Question 25

あなたは組織のデータアナリストです。顧客情報を含むBigQueryデータセットが与えられました。このデータセットには、欠損値、重複、フォーマットの問題など、不整合やエラーが含まれています。効果的かつ迅速にデータをクレンジングする必要があります。どうすべきですか?

A.
Dataflowパイプラインを開発し、BigQueryからデータを読み取り、データ品質ルールと変換を実行し、クレンジングされたデータをBigQueryに書き戻します。
B.
Cloud Data Fusionを使用してデータパイプラインを作成し、BigQueryからデータを読み取り、データ品質変換を実行し、クレンジングされたデータをBigQueryに書き戻します。
C.
BigQueryからデータをCSVファイルにエクスポートします。スプレッドシートエディタを使用してエラーを解決し、クレンジングされたデータをBigQueryに再インポートします。
D.
BigQueryの組み込み関数を使用してデータ品質変換を実行します。