Professional Machine Learning Engineer

Question 196

オンライン予測のためにVertex AIにデプロイする予定のXGBoostモデルをトレーニングしました。現在、このモデルをVertex AI Model Registryにアップロードしており、オンライン予測リクエストに対して最小限のレイテンシで結果を返す説明メソッドを設定する必要があります。また、モデルの特徴量アトリビューションが時間とともに意味のある変化をした場合にアラートを受け取りたいと考えています。どうすればよいですか?

A.
1. 説明メソッドとしてサンプルShapleyを指定し、パス数を5に設定します。 2. モデルをVertex AIエンドポイントにデプロイします。 3. 予測ドリフトを監視目標としてモデル監視ジョブを作成します。
B.
1. 説明メソッドとして統合勾配を指定し、パス数を5に設定します。 2. モデルをVertex AIエンドポイントにデプロイします。 3. 予測ドリフトを監視目標としてモデル監視ジョブを作成します。
C.
1. 説明メソッドとしてサンプルShapleyを指定し、パス数を50に設定します。 2. モデルをVertex AIエンドポイントにデプロイします。 3. トレーニング・サービング スキューを監視目標としてモデル監視ジョブを作成します。
D.
1. 説明メソッドとして統合勾配を指定し、パス数を50に設定します。 2. モデルをVertex AIエンドポイントにデプロイします。 3. トレーニング・サービング スキューを監視目標としてモデル監視ジョブを作成します。
Question 197

あなたは、Cloud Storageに数テラバイトの構造化データを持つゲームスタートアップ企業に勤務しています。このデータには、ゲームプレイ時間データ、ユーザーメタデータ、ゲームメタデータが含まれています。最小限のコーディングでユーザーに新しいゲームを推薦するモデルを構築したいと考えています。どうすべきでしょうか?

A.
データをBigQueryにロードします。BigQuery MLを使用してオートエンコーダーモデルをトレーニングします。
B.
データをBigQueryにロードします。BigQuery MLを使用して行列分解モデルをトレーニングします。
C.
データをVertex AI Workbenchノートブックに読み込みます。TensorFlowを使用してツータワーモデルをトレーニングします。
D.
データをVertex AI Workbenchノートブックに読み込みます。TensorFlowを使用して行列分解モデルをトレーニングします。
Question 198

あなたは、米国とシンガポールで稼働しているGoogle Cloudでホストされたアプリケーションを通じて顧客にサービスを提供する大手銀行に勤務しています。取引が不正である可能性が高いかどうかを分類するためのPyTorchモデルを開発しました。このモデルは3層パーセプトロンであり、数値特徴量とカテゴリ特徴量の両方を入力として使用し、ハッシュ化はモデル内で行われます。 モデルをus-central1リージョンのnl-highcpu-16マシンにデプロイし、予測はリアルタイムで提供されています。モデルの現在の中央値応答レイテンシは40ミリ秒です。特に一部の顧客が最も長い遅延を経験しているシンガポールでのレイテンシを削減したいと考えています。どうすべきですか?

A.
オンライン推論に使用されているマシンにNVIDIA T4 GPUを接続する。
B.
オンライン推論に使用されているマシンをnl-highcpu-32に変更する。
C.
モデルをus-central1およびasia-southeast1リージョンのVertex AIプライベートエンドポイントにデプロイし、アプリケーションが適切なエンドポイントを選択できるようにする。
D.
asia-southeast1リージョンにもう一つVertex AIエンドポイントを作成し、アプリケーションが適切なエンドポイントを選択できるようにする。
Question 199

小規模なデータセットでXGBoostモデルをトレーニングする必要があります。トレーニングコードにはカスタム依存関係が必要です。トレーニングジョブの起動時間を最小化したいと考えています。Vertex AIカスタムトレーニングジョブをどのように設定すべきですか?

A.
データをCloud Storageバケットに保存し、トレーニングアプリケーションを含むカスタムコンテナを作成します。トレーニングアプリケーションで、Cloud Storageからデータを読み込み、モデルをトレーニングします。
B.
XGBoost事前ビルドコンテナを使用します。データを含み、実行時に依存関係をインストールするPythonソース配布を作成します。トレーニングアプリケーションで、データをpandas DataFrameにロードし、モデルをトレーニングします。
C.
データを含むカスタムコンテナを作成します。トレーニングアプリケーションで、データをpandas DataFrameにロードし、モデルをトレーニングします。
D.
データをCloud Storageバケットに保存し、XGBoost事前ビルドコンテナを使用してトレーニングアプリケーションを実行します。実行時に依存関係をインストールするPythonソース配布を作成します。トレーニングアプリケーションで、Cloud Storageからデータを読み込み、モデルをトレーニングします。
Question 200

あなたは、さまざまなGoogle Cloudサービスを使用するデータ処理、モデルトレーニング、モデルデプロイのためのMLパイプラインを作成しています。個々のタスクごとにコードを開発済みであり、新しいファイルが高頻度で生成されることを見込んでいます。これらのタスクの上にオーケストレーションレイヤーを作成する必要があります。このオーケストレーションパイプラインは、Cloud Storageバケット内のデータセットに新しいファイルが存在する場合にのみ実行したいと考えています。また、コンピュートノードのコストも最小限に抑えたいです。どうすべきでしょうか?

A.
Vertex AI Pipelinesでパイプラインを作成します。最初のステップで、バケットの内容をパイプラインが最後に実行された時と比較するように設定します。スケジューラAPIを使用してパイプラインを定期的に実行します。
B.
Cloud Storageトリガーを使用するCloud Functionsを作成し、Cloud Composerの有向非巡回グラフ(DAG)をデプロイします。
C.
Vertex AI Pipelinesでパイプラインを作成します。Cloud Storageトリガーを使用するCloud Functionsを作成し、そのパイプラインを実行します。
D.
Cloud Storageバケットに新しいファイルが追加されたことを検出するGCSObjectUpdateSensorクラスを持つCloud Composerの有向非巡回グラフ(DAG)をデプロイします。