Professional Machine Learning Engineer

Question 81

あなたは研究者チームと協力して、金融分析のための最先端のアルゴリズムを開発しています。あなたのチームはTensorFlowで複雑なモデルを開発し、デバッグしています。あなたは、デバッグの容易さを維持しつつ、モデルのトレーニング時間も短縮したいと考えています。トレーニング環境をどのように設定すべきですか?

A.
v3-8 TPU VMを構成します。VMにSSH接続してモデルをトレーニングし、デバッグします。
B.
v3-8 TPUノードを構成します。Cloud Shellを使用してホストVMにSSH接続し、モデルをトレーニングし、デバッグします。
C.
4つのNVIDIA P100 GPUを搭載したn1-standard-4 VMを構成します。VMにSSH接続し、パラメータサーバーストラテジーを使用してモデルをトレーニングします。
D.
4つのNVIDIA P100 GPUを搭載したn1-standard-4 VMを構成します。VMにSSH接続し、マルチワーカーミラードストラテジーを使用してモデルをトレーニングします。
Question 82

あなたは複数の入力パラメータを持つMLパイプラインを作成しました。異なるパラメータの組み合わせ間のトレードオフを調査したいと考えています。パラメータの選択肢は以下の通りです。 • 入力データセット • ブースティングツリー回帰モデルの木の最大深度 • オプティマイザの学習率 F1スコア、学習時間、モデルの複雑さで測定される、異なるパラメータの組み合わせのパイプラインパフォーマンスを比較する必要があります。あなたのアプローチは再現可能であり、すべてのパイプライン実行を同じプラットフォームで追跡できるようにしたいと考えています。何をすべきですか?

A.
1. BigQuery MLを使用してブースティングツリー回帰モデルを作成し、ハイパーパラメータチューニング機能を使用します。 2. 異なる入力データセット、木の最大深度、オプティマイザの学習率を選択するようにハイパーパラメータ構文を設定します。グリッドサーチオプションを選択します。
B.
1. パイプラインの一部としてカスタムモデル学習ジョブを持つVertex AIパイプラインを作成します。調査対象のパラメータを含むようにパイプラインのパラメータを設定します。 2. カスタム学習ステップで、F1スコアを最大化するターゲットとしてベイズ最適化手法を使用します。
C.
1. 異なる入力データセットごとにVertex AI Workbenchノートブックを作成します。 2. 各ノートブックで、木の最大深度とオプティマイザの学習率パラメータの異なる組み合わせで、異なるローカル学習ジョブを実行します。 3. 各ノートブックが終了した後、結果をBigQueryテーブルに追加します。
D.
1. Vertex AI Experimentsで実験を作成します。 2. パイプラインの一部としてカスタムモデル学習ジョブを持つVertex AIパイプラインを作成します。調査対象のパラメータを含むようにパイプラインのパラメータを設定します。 3. パラメータに異なる値を使用して、同じ実験に複数の実行をサブミットします。
Question 83

本番環境で実行中のVertex AI Model Monitoringジョブから、トレーニング・サービング スキューのアラートを受信しました。より新しいトレーニングデータでモデルを再トレーニングし、Vertex AIエンドポイントに再デプロイしましたが、依然として同じアラートを受信しています。どうすべきでしょうか?

A.
モデル監視ジョブを更新して、より低いサンプリングレートを使用するようにします。
B.
モデル監視ジョブを更新して、モデルの再トレーニングに使用された、より新しいトレーニングデータを使用するようにします。
C.
アラートを一時的に無効にします。十分な量の新しい本番トラフィックがVertex AIエンドポイントを通過した後、アラートを再度有効にします。
D.
新しいトレーニングデータでモデルを再度トレーニングできるようになるまで、アラートを一時的に無効にします。十分な量の新しい本番トラフィックがVertex AIエンドポイントを通過した後、モデルを再度トレーニングします。
Question 84

あなたはVertex AIを使用してカスタムモデルを開発し、過去のトランザクションデータに基づいて自社製品の売上を予測しています。近い将来、特徴量の分布や特徴量間の相関関係が変化すると予想しています。また、大量の予測リクエストを受け取ることも想定しています。ドリフト検出のためにVertex AI Model Monitoringを使用する予定であり、コストを最小限に抑えたいと考えています。どうすべきでしょうか?

A.
モニタリングに特徴量を使用します。監視頻度の値をデフォルトよりも高く設定します。
B.
モニタリングに特徴量を使用します。予測サンプリングレートの値を0よりも1に近い値(つまり高いレート)に設定します。
C.
モニタリングに特徴量と特徴量アトリビューションを使用します。監視頻度の値をデフォルトよりも低く設定します。
D.
モニタリングに特徴量と特徴量アトリビューションを使用します。予測サンプリングレートの値を1よりも0に近い値(つまり低いレート)に設定します。
Question 85

最近トレーニングしたscikit-learnモデルがあり、Vertex AIにデプロイする予定です。このモデルは、オンライン予測とバッチ予測の両方をサポートします。モデル推論のために入力データを前処理する必要があります。追加のコードを最小限に抑えながら、デプロイのためにモデルをパッケージ化したいと考えています。どうすればよいですか?

A.
1. 事前ビルド済みのscikit-learn予測コンテナを使用して、モデルをVertex AI Model Registryにアップロードします。 2. モデルをVertex AI Endpointsにデプロイし、instanceConfig.instanceType設定を使用して入力データを変換するVertex AIバッチ予測ジョブを作成します。
B.
1. モデルをカスタム予測ルーチン(CPR)でラップし、CPRローカルモデルからコンテナイメージをビルドします。 2. scikit-learnモデルコンテナをVertex AI Model Registryにアップロードします。 3. モデルをVertex AI Endpointsにデプロイし、Vertex AIバッチ予測ジョブを作成します。
C.
1. scikit-learnモデル用のカスタムコンテナを作成します。 2. モデル用のカスタムサービング関数を定義します。 3. モデルとカスタムコンテナをVertex AI Model Registryにアップロードします。 4. モデルをVertex AI Endpointsにデプロイし、Vertex AIバッチ予測ジョブを作成します。
D.
1. scikit-learnモデル用のカスタムコンテナを作成します。 2. モデルとカスタムコンテナをVertex AI Model Registryにアップロードします。 3. モデルをVertex AI Endpointsにデプロイし、instanceConfig.instanceType設定を使用して入力データを変換するVertex AIバッチ予測ジョブを作成します。