Professional Machine Learning Engineer

Question 126

オンライン予測に使用されるカスタムTensorFlowモデルを開発する必要があります。トレーニングデータはBigQueryに保存されています。モデルのトレーニングとサービングのために、データに対してインスタンスレベルのデータ変換を適用する必要があります。モデルのトレーニングとサービング中に同じ前処理ルーチンを使用したいと考えています。前処理ルーチンをどのように構成すべきですか?

A.
BigQueryスクリプトを作成してデータを前処理し、その結果を別のBigQueryテーブルに書き込みます。
B.
Vertex AI Pipelinesでパイプラインを作成し、BigQueryからデータを読み込み、カスタム前処理コンポーネントを使用して前処理を行います。
C.
BigQueryからデータを読み込んで変換する前処理関数を作成します。サービング時にその前処理関数を呼び出すVertex AIカスタム予測ルーチンを作成します。
D.
Apache Beamパイプラインを作成し、BigQueryからデータを読み込み、TensorFlow TransformとDataflowを使用して前処理を行います。
Question 127

あなたはGoogle Cloud上で大規模言語モデルを事前学習しています。このモデルは、学習ループにカスタムTensorFlowオペレーションを含んでいます。モデルの学習では大規模なバッチサイズを使用し、学習には数週間かかると予想しています。学習時間と計算コストの両方を最小化する学習アーキテクチャを構成する必要があります。どうすべきですか?

A.
`tf.distribute.MultiWorkerMirroredStrategy` を使用して、`a2-megagpu-16g` マシンのワーカーを8台実装します。
B.
`tf.distribute.TPUStrategy` を使用して、`-accelerator-type=v4-l28` のTPU Podスライスを実装します。
C.
`tf.distribute.MirroredStrategy` を使用して、`c2d-highcpu-32` マシンのワーカーを16台実装します。
D.
`tf.distribute.MultiWorkerMirroredStrategy` を使用して、`a2-highgpu-8g` マシンのワーカーを16台実装します。
Question 128

あなたは、数十億の画像とそれぞれのキャプションを含むデータセットを使用して、TensorFlowのテキストから画像を生成するモデルを構築しています。あなたは、Cloud Storageバケットからデータを読み込み、統計情報を収集し、データセットを訓練用/検証用/テスト用に分割し、データ変換を実行し、訓練用/検証用データセットを使用してモデルを訓練し、テストデータセットを使用してモデルを検証する、メンテナンスの手間がかからない自動化されたワークフローを作成したいと考えています。どうすべきでしょうか?

A.
Apache Airflow SDKを使用して、DataflowおよびVertex AIサービスを利用する複数のオペレーターを作成します。ワークフローはCloud Composerにデプロイします。
B.
MLFlow SDKを使用し、Google Kubernetes Engineクラスタにデプロイします。DataflowおよびVertex AIサービスを利用する複数のコンポーネントを作成します。
C.
Kubeflow Pipelines (KFP) SDKを使用して、DataflowおよびVertex AIサービスを利用する複数のコンポーネントを作成します。ワークフローはVertex AI Pipelinesにデプロイします。
D.
TensorFlow Extended (TFX) SDKを使用して、DataflowおよびVertex AIサービスを利用する複数のコンポーネントを作成します。ワークフローはVertex AI Pipelinesにデプロイします。
Question 129

あなたはVertex AI Pipelinesを使用してMLパイプラインを開発しています。このパイプラインでXGBoostモデルの新しいバージョンをVertex AI Model Registryにアップロードし、オンライン推論のためにVertex AI Endpointsにデプロイしたいと考えています。最も簡単なアプローチを使用したい場合、どうすべきですか?

A.
vertex-ai/prediction/xgboost-cpuイメージをベースにしたカスタムコンポーネント内でVertex AI REST APIを使用する
B.
モデルを評価するためにVertex AI ModelEvaluationOpコンポーネントを使用する
C.
python:3.10イメージをベースにしたカスタムコンポーネント内でVertex AI SDK for Pythonを使用する
D.
Vertex AI ModelUploadOpコンポーネントとModelDeployOpコンポーネントを連結する
Question 130

あなたはオンライン小売業者で働いています。あなたの会社には、ライフサイクルの短い製品が数千種類あります。あなたの会社は、BigQueryに5年分の販売データを保存しています。あなたは、各製品の月間販売予測を行うモデルを構築するよう依頼されました。あなたは、最小限の労力で迅速に実装できるソリューションを使用したいと考えています。どうすべきでしょうか?

A.
Vertex AI TrainingでProphetを使用してカスタムモデルを構築する。
B.
Vertex AI Forecastを使用してニューラルネットワークベースのモデルを構築する。
C.
BigQuery MLを使用して統計的なARIMA_PLUSモデルを構築する。
D.
Vertex AI TrainingでTensorFlowを使用してカスタムモデルを構築する。