Professional Machine Learning Engineer

Question 101

カスタムライブラリを必要とするKubeflowパイプラインのユニットテストを作成しました。Cloud Source Repositoriesの開発ブランチに新しいプッシュがあるたびに、ユニットテストの実行を自動化したいと考えています。どうすればよいですか?

A.
開発ブランチへのプッシュとCloud Runでのユニットテスト実行を順次実行するスクリプトを作成する。
B.
Cloud Buildを使用して、開発ブランチに変更がプッシュされたときにユニットテストを実行する自動トリガーを設定する。
C.
Cloud Source RepositoriesとのインタラクションをキャプチャするPub/SubトピックへのCloud Loggingシンクを設定する。Cloud Run用のPub/Subトリガーを設定し、Cloud Runでユニットテストを実行する。
D.
Cloud Source RepositoriesとのインタラクションをキャプチャするPub/SubトピックへのCloud Loggingシンクを設定する。Pub/Subトピックにメッセージが送信されたときにトリガーされるCloud Functionsを使用してユニットテストを実行する。
Question 102

最近、Vertex AIエンドポイントにモデルをデプロイしました。データは頻繁にドリフトするため、リクエスト/レスポンスログを有効にし、Vertex AI Model Monitoringジョブを作成しました。モデルが予想よりも多くのトラフィックを受信していることが確認されています。ドリフトを迅速に検出し続けながら、モデル監視コストを削減する必要があります。どうすればよいですか?

A.
監視ジョブを、TensorFlow Data Validation (TFDV) を使用するDataFlowパイプラインに置き換える
B.
監視ジョブを、BigQueryで特徴量と予測に関する統計情報を計算するカスタムSQLスクリプトに置き換える
C.
監視ジョブのRandomSampleConfigにあるsample_rateパラメータを減らす
D.
監視ジョブのScheduleConfigにあるmonitor_intervalパラメータを増やす
Question 103

あなたは小売企業に勤務しています。月次の商品売上予測を生成するVertex AI予測モデルを作成しました。このモデルがどのように予測を計算するのかを説明するのに役立つレポートを迅速に作成したいと考えています。学習データセットには含まれていなかった直近1ヶ月分の実際の売上データがあります。レポート用のデータはどのように生成すべきですか?

A.
実際の売上データを使用してバッチ予測ジョブを作成します。レポートで予測と実績値を比較します。
B.
実際の売上データを使用してバッチ予測ジョブを作成し、特徴量の重要度を生成するようにジョブ設定を構成します。レポートで結果を比較します。
C.
実際の売上データを使用して反実仮想例を生成します。実際の売上データと反実仮想例を使用してバッチ予測ジョブを作成します。レポートで結果を比較します。
D.
元のモデルと同じ学習データセットを使用し、いくつかの列を除外して別のモデルを学習させます。実際の売上データを使用して、新しいモデルで1つのバッチ予測ジョブを、元のモデルでもう1つのバッチ予測ジョブを作成します。レポートで2つの予測セットを比較します。
Question 104

あなたのチームは、Vertex AIエンドポイントにモデルをデプロイしています。モデルのトレーニングプロセスを自動化し、Cloud FunctionによってトリガーされるVertex AIパイプラインを作成しました。モデルを最新の状態に保つことを優先しつつ、再トレーニングコストも最小限に抑える必要があります。再トレーニングはどのように設定すべきですか?

A.
十分な量の新しいデータが利用可能になったときにCloud Functionを呼び出すようにPub/Subを設定する
B.
チームの予算に合う所定の頻度でCloud Functionを呼び出すCloud Schedulerジョブを設定する
C.
Vertex AIエンドポイントでモデルモニタリングを有効にする。異常が検出されたときにCloud Functionを呼び出すようにPub/Subを設定する
D.
Vertex AIエンドポイントでモデルモニタリングを有効にする。特徴量のドリフトが検出されたときにCloud Functionを呼び出すようにPub/Subを設定する
Question 105

あなたの会社は、カスタマーコールセンターへの電話の音声ファイルを多数、オンプレミスのデータベースに保存しています。各音声ファイルはwav形式で、長さは約5分です。これらの音声ファイルを分析して、顧客の感情を把握する必要があります。Speech-to-Text APIを使用する予定です。最も効率的なアプローチを使用したいと考えています。どうすればよいですか?

A.
1. 音声ファイルをCloud Storageにアップロードします。 2. `speech:longrunningrecognize` APIエンドポイントを呼び出して、文字起こしを生成します。 3. AutoML感情分析モデルの`predict`メソッドを呼び出して、文字起こしを分析します。
B.
1. 音声ファイルをCloud Storageにアップロードします。 2. `speech:longrunningrecognize` APIエンドポイントを呼び出して、文字起こしを生成します。 3. `analyzeSentiment`メソッドを使用してNatural Language APIを呼び出すCloud Functionを作成します。
C.
1. Pythonでローカルファイルを反復処理します。 2. Speech-to-Text Pythonライブラリを使用して`speech.RecognitionAudio`オブジェクトを作成し、コンテンツを音声ファイルデータに設定します。 3. `speech:recognize` APIエンドポイントを呼び出して、文字起こしを生成します。 4. AutoML感情分析モデルの`predict`メソッドを呼び出して、文字起こしを分析します。
D.
1. Pythonでローカルファイルを反復処理します。 2. Speech-to-Text Pythonライブラリを使用して`speech.RecognitionAudio`オブジェクトを作成し、コンテンツを音声ファイルデータに設定します。 3. `speech:longrunningrecognize` APIエンドポイントを呼び出して、文字起こしを生成します。 4. `analyzeSentiment`メソッドを使用してNatural Language APIを呼び出します。