Associate Data Practitioner

Question 51

あなたの組織は、非常に個人的なデータをBigQueryに保存しており、厳格なデータプライバシー規制を遵守する必要があります。従業員が退職する際には常に、機密データが読み取り不能になるようにする必要があります。どうすればよいですか?

A.
AEAD関数を使用し、従業員が退職した際に鍵を削除する。
B.
動的データマスキングを使用し、従業員が退職した際に閲覧者の権限を取り消す。
C.
顧客管理の暗号鍵(CMEK)を使用し、従業員が退職した際に鍵を削除する。
D.
ポリシータグを使用した列レベルのアクセス制御を使用し、従業員が退職した際に閲覧者の権限を取り消す。
問題52

あなたは6ヶ月前にBigQuery MLを使用して顧客の購入傾向モデルを構築しました。モデルの再トレーニングが必要かどうかを判断するために、現在のサービングデータと過去のサービングデータを比較したいと考えています。何をすべきですか?

A.
2つの異なるモデルを比較する。
B.
データの歪度を評価する。
C.
データドリフトを評価する。
D.
混同行列を比較する。
Question 53

あなたの会社では、販売データの可視化と分析にLookerを使用しています。地域別、製品カテゴリ別、期間別の販売など、販売指標を表示するダッシュボードを作成する必要があります。各指標は、複数のテーブルに分散された独自の属性セットに依存しています。ユーザーが特定の営業担当者でデータをフィルタリングし、個々のトランザクションを表示できるようにする必要があります。Googleが推奨するアプローチに従いたいと考えています。どうすべきでしょうか?

A.
複数のExploreを作成し、それぞれが各販売指標に焦点を当てるようにします。ドリルダウン機能を使用して、ダッシュボードでこれらのExploreを連携させます。
B.
BigQueryを使用して複数のマテリアライズドビューを作成し、それぞれが特定の販売指標に焦点を当てるようにします。これらのビューを使用してダッシュボードを構築します。
C.
すべての販売指標を含む単一のExploreを作成します。このExploreを使用してダッシュボードを構築します。
D.
Lookerのカスタムビジュアライゼーション機能を使用して、フィルタリング機能とドリルダウン機能を備え、すべての販売指標を表示する単一のビジュアライゼーションを作成します。
Question 54

あなたの会社のeコマースウェブサイトでは、顧客からの製品レビューを収集しています。レビューはCSVファイルとして毎日Cloud Storageバケットにロードされます。レビューは複数の言語で書かれており、スペイン語に翻訳する必要があります。サーバーレスで効率的、かつ最小限のメンテナンスで済むパイプラインを構成する必要があります。どうすればよいですか?

A.
Dataprocを使用してデータをBigQueryにロードします。Apache Sparkを使用してCloud Translation APIを呼び出し、レビューを翻訳します。BigQueryを出力先として設定します。
B.
Dataflowテンプレートパイプラインを使用してCloud Translation APIを利用しレビューを翻訳します。BigQueryを出力先として設定します。
C.
Cloud Run関数を使用してデータをBigQueryにロードします。BigQuery MLのCREATE MODELステートメントを使用して翻訳モデルをトレーニングします。BigQuery内でそのモデルを使用して製品レビューを翻訳します。
D.
Cloud Run関数を使用してデータをBigQueryにロードします。Cloud Translation APIを呼び出すBigQueryリモート関数を作成します。スケジュールされたクエリを使用して新しいレビューを翻訳します。
Question 55

Cloud Storageに保存されたデータに対してバッチ処理を実行するDataprocクラスタがあります。関係者にメールで送信されるレポートを生成するために、毎日Sparkジョブをスケジュールする必要があります。実装が容易で複雑さを最小限に抑える、フルマネージドソリューションが必要です。どうすればよいですか?

A.
Cloud Composerを使用してSparkジョブをオーケストレーションし、レポートをメールで送信する。
B.
Dataprocワークフローテンプレートを使用してSparkジョブを定義・スケジュールし、レポートをメールで送信する。
C.
Cloud Run関数を使用してSparkジョブをトリガーし、レポートをメールで送信する。
D.
Cloud Schedulerを使用してSparkジョブをトリガーし、Cloud Run関数を使用してレポートをメールで送信する。