Professional Machine Learning Engineer

Question 96

あなたは顧客離反を予測するBigQuery MLモデルを開発し、そのモデルをVertex AIエンドポイントにデプロイしました。モデルの特徴量の値が変化した際に、最小限の追加コードでモデルの再トレーニングを自動化したいと考えています。また、トレーニングコストを削減するために、モデルの再トレーニング回数を最小限に抑えたいと考えています。どうすべきでしょうか?

A.
1. Vertex AI エンドポイントでリクエスト/レスポンスのロギングを有効にします。 2. TensorFlow Data Validation ジョブをスケジュールして、予測ドリフトを監視します。 3. 分布間に大きな隔たりがある場合、モデルの再トレーニングを実行します。
B.
1. Vertex AI エンドポイントでリクエスト/レスポンスのロギングを有効にします。 2. TensorFlow Data Validation ジョブをスケジュールして、トレーニング/サービングスキューを監視します。 3. 分布間に大きな隔たりがある場合、モデルの再トレーニングを実行します。
C.
1. 予測ドリフトを監視するように設定されたVertex AI モデル監視ジョブを作成します。 2. 監視アラートが検出されたときにPub/Subキューにメッセージを公開するようにアラート監視を設定します。 3. Cloud Functionを使用してPub/Subキューを監視し、BigQueryで再トレーニングをトリガーします。
D.
1. トレーニング/サービングスキューを監視するように設定されたVertex AI モデル監視ジョブを作成します。 2. 監視アラートが検出されたときにPub/Subキューにメッセージを公開するようにアラート監視を設定します。 3. Cloud Functionを使用してPub/Subキューを監視し、BigQueryで再トレーニングをトリガーします。
Question 97

あなたはプロトタイプコードを本番環境にデプロイするタスクを任されました。特徴量エンジニアリングのコードはPySparkで記述されており、Dataproc Serverless上で実行されます。モデルトレーニングはVertex AIカスタムトレーニングジョブを使用して実行されます。これら2つのステップは連携されておらず、現在は特徴量エンジニアリングのステップが完了した後に、モデルトレーニングを手動で実行する必要があります。エンドツーエンドで実行され、ステップ間の接続を追跡する、スケーラブルで保守可能な本番プロセスを作成する必要があります。どうすればよいでしょうか?

A.
Vertex AI Workbenchノートブックを作成します。そのノートブックを使用してDataproc Serverlessの特徴量エンジニアリングジョブを送信します。同じノートブックを使用してカスタムモデルトレーニングジョブを送信します。ノートブックのセルを順次実行して、ステップをエンドツーエンドで連携させます。
B.
Vertex AI Workbenchノートブックを作成します。ノートブックでApache Sparkコンテキストを開始し、PySparkの特徴量エンジニアリングコードを実行します。同じノートブックを使用してTensorFlowでカスタムモデルトレーニングジョブを実行します。ノートブックのセルを順次実行して、ステップをエンドツーエンドで連携させます。
C.
Kubeflow Pipelines SDKを使用して、以下の2つのコンポーネントを指定するコードを記述します。 - 1つ目は、特徴量エンジニアリングジョブを起動するDataproc Serverlessコンポーネントです。 - 2つ目は、カスタムモデルトレーニングジョブを起動する`create_custom_training_job_from_component`ユーティリティでラップされたカスタムコンポーネントです。 Vertex AI Pipelinesジョブを作成して、両方のコンポーネントを連携させて実行します。
D.
Kubeflow Pipelines SDKを使用して、以下の2つのコンポーネントを指定するコードを記述します。 - 1つ目のコンポーネントは、PySparkの特徴量エンジニアリングコードを実行するApache Sparkコンテキストを開始します。 - 2つ目のコンポーネントは、TensorFlowのカスタムモデルトレーニングコードを実行します。 Vertex AI Pipelinesジョブを作成して、両方のコンポーネントを連携させて実行します。
Question 98

最近、scikit-learnモデルをVertex AIエンドポイントにデプロイしました。現在、本番環境のライブトラフィックでモデルをテストしています。エンドポイントを監視していると、1日を通して予想の2倍のリクエスト数が1時間あたりに発生していることがわかりました。将来、需要が増加した際にエンドポイントが効率的にスケーリングし、ユーザーが高いレイテンシを経験するのを防ぎたいと考えています。どうすべきでしょうか?

A.
同じエンドポイントに2つのモデルをデプロイし、リクエストを均等に分散する
B.
予想されるベースライントラフィックに基づいて、適切なminReplicaCount値を設定する
C.
autoscalingMetricSpecs設定の目標使用率をより高い値に設定する
D.
モデルのマシンタイプをGPUを利用するものに変更する
Question 99

あなたは銀行で働いています。銀行のベンダーから提供されたカスタムの表形式MLモデルがあります。トレーニングデータは機密性が高いため利用できません。このモデルはVertex AIモデルサービングコンテナとしてパッケージ化されており、各予測インスタンスの入力として文字列を受け付けます。各文字列では、特徴量の値はカンマで区切られています。あなたはこのモデルをオンライン予測のために本番環境にデプロイし、最小限の労力で時間の経過に伴う特徴量の分布を監視したいと考えています。どうすべきでしょうか?

A.
1. モデルをVertex AIモデルレジストリにアップロードし、モデルをVertex AIエンドポイントにデプロイします。 2. モニタリング目的として特徴量ドリフト検出を指定し、インスタンススキーマを提供してVertex AIモデルモニタリングジョブを作成します。
B.
1. モデルをVertex AIモデルレジストリにアップロードし、モデルをVertex AIエンドポイントにデプロイします。 2. モニタリング目的として特徴量スキュー検出を指定し、インスタンススキーマを提供してVertex AIモデルモニタリングジョブを作成します。
C.
1. サービングコンテナをリファクタリングして、キーと値のペアを入力形式として受け入れるようにします。 2. モデルをVertex AIモデルレジストリにアップロードし、モデルをVertex AIエンドポイントにデプロイします。 3. モニタリング目的として特徴量ドリフト検出を指定してVertex AIモデルモニタリングジョブを作成します。
D.
1. サービングコンテナをリファクタリングして、キーと値のペアを入力形式として受け入れるようにします。 2. モデルをVertex AIモデルレジストリにアップロードし、モデルをVertex AIエンドポイントにデプロイします。 3. モニタリング目的として特徴量スキュー検出を指定してVertex AIモデルモニタリングジョブを作成します。
Question 100

あなたはGoogle Cloudでバッチ推論MLパイプラインを実装しています。モデルはTensorFlowを使用して開発され、Cloud StorageにSavedModel形式で保存されています。BigQueryテーブルに保存されている10TBのデータを含む履歴データセットにモデルを適用する必要があります。どのように推論を実行すべきですか?

A.
履歴データをAvro形式でCloud Storageにエクスポートします。エクスポートされたデータに対して予測を生成するようにVertex AIバッチ予測ジョブを設定します。
B.
BigQuery MLのCREATE MODELステートメントを使用してTensorFlowモデルをインポートします。履歴データにTensorFlowモデルを適用します。
C.
履歴データをCSV形式でCloud Storageにエクスポートします。エクスポートされたデータに対して予測を生成するようにVertex AIバッチ予測ジョブを設定します。
D.
BigQuery内の履歴データにモデルを適用するようにVertex AIバッチ予測ジョブを設定します。