Associate Data Practitioner

Question 31

あなたは、月末の重要なレポートに使用されるBigQueryテーブルを管理しています。このテーブルは、新しい販売データで毎週更新されます。テーブルが誤って削除された場合に、データ損失やレポート作成の問題を防ぎたいと考えています。どうすべきでしょうか?

A.
テーブルのタイムトラベル期間を正確に7日間に設定します。削除時には、タイムトラベルデータのみを使用して削除されたテーブルを再作成します。
B.
週に一度、テーブルの新しいスナップショットの作成をスケジュールします。削除時には、スナップショットとタイムトラベルデータを使用して削除されたテーブルを再作成します。
C.
テーブルのクローンを作成します。削除時には、クローンの内容をコピーして削除されたテーブルを再作成します。
D.
テーブルのビューを作成します。削除時には、ビューとタイムトラベルデータから削除されたテーブルを再作成します。
Question 32

あなたの組織は、IoTイベントデータをPub/Subトピックに送信しています。サブスクライバーアプリケーションは、メッセージを読み取り、データウェアハウスに保存する前に変換を実行します。特にトピックへのデータ書き込みが多い繁忙期には、サブスクライバーアプリケーションが期限内にメッセージを確認応答していないことに気づきました。これらのアクティビティの急増に対応し、メッセージの処理を継続できるようにパイプラインを修正する必要があります。どうすればよいですか?

A.
確認応答されるまでメッセージを再試行する。
B.
サブスクライバーにフロー制御を実装する。
C.
確認応答されなかったメッセージをデッドレタートピックに転送する。
D.
最後に確認応答されたメッセージまでシークバックする。
Question 33

BigQueryに数百万件の顧客フィードバック記録が保存されています。大規模言語モデル(LLM)であるGeminiを使用してこのデータを要約したいと考えています。最も効率的なアプローチを使用してこの分析を計画し、実行する必要があります。どうすればよいですか?

A.
Pythonノートブック内からBigQueryテーブルにクエリを実行し、ノートブック内でGemini APIを使用してデータを要約し、その要約をBigQueryに保存する。
B.
BigQuery MLモデルを使用してテキストデータを前処理し、結果をCloud Storageにエクスポートし、Gemini APIを使用して前処理されたデータを要約する。
C.
Vertex AIのリモートモデルへのBigQuery Cloudリソース接続を作成し、Geminiを使用してデータを要約する。
D.
生のBigQueryデータをCSVファイルにエクスポートし、Cloud Storageにアップロードし、Gemini APIを使用してデータを要約する。
Question 34

Cloud Storageに保存されている日次売上CSVファイルを処理してBigQueryにロードし、下流のレポート作成に利用したいと考えています。データ品質の問題に関する洞察を提供しつつデータを変換する、スケーラブルなデータパイプラインを迅速に構築する必要があります。どうすればよいでしょうか?

A.
Cloud Data Fusionで、Cloud StorageソースとBigQueryシンクを使用してバッチパイプラインを作成する。
B.
CSVファイルをBigQueryのテーブルとしてロードし、スケジュールされたクエリを使用してSQL変換スクリプトを実行する。
C.
CSVファイルをBigQueryのテーブルとしてロードする。Cloud Data Fusionで、BigQueryソースとシンクを使用してバッチパイプラインを作成する。
D.
Dataflowで、Cloud Storage CSVファイルからBigQueryへのバッチテンプレートを使用してバッチパイプラインを作成する。
Question 35

あなたは、リアルタイム分析のためにBigQueryにデータをロードする前に、入力データの検証とクリーニングを行うデータパイプラインに取り組んでいます。データ検証とクリーニングが効率的に実行され、大量のデータを処理できるようにしたいと考えています。どうすればよいでしょうか?

A.
Google Cloudの外部でPythonのカスタムスクリプトを作成し、データの検証とクリーニングを行います。クリーニングされたデータをBigQueryにロードします。
B.
Cloud Storageに新しいデータが到着したときに、Cloud Run関数を使用してデータ検証とクリーニング処理をトリガーします。
C.
Dataflowを使用して、検証および変換ステップを含むストリーミングパイプラインを作成します。
D.
Cloud Storageをステージングエリアとして使用して生データをBigQueryにロードし、BigQueryのSQLクエリを使用してデータの検証とクリーニングを行います。