Professional Machine Learning Engineer

Question 91

あなたは最近、Vertex AI Pipelinesでパイプラインをデプロイし、モデルをトレーニングしてVertex AIエンドポイントにプッシュし、リアルタイムトラフィックを処理するようにしました。モデルのパフォーマンスを向上させるために、パイプラインの実験と反復を継続する必要があります。CI/CDにはCloud Buildを使用する予定です。新しいパイプラインを迅速かつ容易に本番環境にデプロイし、新しいパイプラインの実装が本番環境で失敗する可能性を最小限に抑えたいと考えています。どうすべきでしょうか?

A.
ソースコードをビルドしテストするCI/CDパイプラインを設定します。テストが成功した場合、Google Cloudコンソールを使用してビルド済みコンテナをArtifact Registryにアップロードし、コンパイル済みパイプラインをVertex AI Pipelinesにアップロードします。
B.
ソースコードをビルドし、その後ビルド済みアーティファクトを事前本番環境にデプロイするCI/CDパイプラインを設定します。事前本番環境で単体テストを実行します。テストが成功した場合、パイプラインを本番環境にデプロイします。
C.
ソースコードをビルドしテストし、その後ビルド済みアーティファクトを事前本番環境にデプロイするCI/CDパイプラインを設定します。事前本番環境でのパイプライン実行が成功した後、パイプラインを本番環境にデプロイします。
D.
ソースコードをビルドしテストし、その後ビルド済みアーティファクトを事前本番環境にデプロイするCI/CDパイプラインを設定します。事前本番環境でのパイプライン実行が成功した後、ソースコードを再ビルドし、アーティファクトを本番環境にデプロイします。
Question 92

あなたは厳格なデータガバナンス要件を持つ銀行に勤務しています。最近、不正取引を検出するためのカスタムモデルを実装しました。トレーニングコードが、プロジェクトのネットワークでホストされているAPIエンドポイントを使用して内部データをダウンロードできるようにしたいと考えています。データ漏洩のリスクを軽減しつつ、最も安全な方法でデータにアクセスする必要があります。どうすればよいですか?

A.
ピアリングに対してVPCサービスコントロールを有効にし、Vertex AIをサービス境界に追加する。
B.
データへのプロキシとしてCloud Runエンドポイントを作成する。トレーニングジョブからエンドポイントへのアクセスを保護するためにIAM (Identity and Access Management) 認証を使用する。
C.
Vertex AIとのVPCピアリングを設定し、トレーニングジョブのネットワークを指定する。
D.
トレーニングジョブを呼び出す前に、データをCloud Storageバケットにダウンロードする。
Question 93

あなたは、トラフィックを処理している本番環境のVertex AIエンドポイントに、モデルの新しいバージョンをデプロイしようとしています。すべてのユーザートラフィックを新しいモデルに向ける予定です。アプリケーションへの影響を最小限に抑えてモデルをデプロイする必要があります。どうすべきですか?

A.
1. 新しいエンドポイントを作成します。 2. 新しいモデルを作成し、デフォルトバージョンとして設定します。モデルをVertex AIモデルレジストリにアップロードします。 3. 新しいモデルを新しいエンドポイントにデプロイします。 4. Cloud DNSを更新して、新しいエンドポイントを指すようにします。
B.
1. 新しいエンドポイントを作成します。 2. 新しいモデルを作成します。`parentModel`パラメータを現在デプロイされているモデルのモデルIDに設定し、デフォルトバージョンとして設定します。モデルをVertex AIモデルレジストリにアップロードします。 3. 新しいモデルを新しいエンドポイントにデプロイし、新しいモデルにトラフィックの100%を割り当てます。
C.
1. 新しいモデルを作成します。`parentModel`パラメータを現在デプロイされているモデルのモデルIDに設定します。モデルをVertex AIモデルレジストリにアップロードします。 2. 新しいモデルを既存のエンドポイントにデプロイし、新しいモデルにトラフィックの100%を割り当てます。
D.
1. 新しいモデルを作成し、デフォルトバージョンとして設定します。モデルをVertex AIモデルレジストリにアップロードします。 2. 新しいモデルを既存のエンドポイントにデプロイします。
Question 94

大規模なデータセットで機械学習モデルをトレーニングしています。トレーニングプロセスを高速化するためにTPUを使用しています。トレーニングプロセスが予想よりも時間がかかっていることに気づきました。TPUがその処理能力を最大限に活用できていないことが判明しました。どうすればよいですか?

A.
学習率を上げる
B.
エポック数を増やす
C.
学習率を下げる
D.
バッチサイズを増やす
Question 95

あなたは小売企業に勤務しています。Vertex AIに、3つの異なる店舗の販売データを含むマネージド表形式データセットがあります。このデータセットには、店舗名や販売タイムスタンプなどのいくつかの特徴量が含まれています。このデータを使用して、間もなく開店する新店舗の販売予測を行うモデルを訓練したいと考えています。データを訓練セット、検証セット、テストセットに分割する必要があります。データを分割するにはどのアプローチを使用すべきですか?

A.
Vertex AIの手動分割を使用し、店舗名特徴量を使用して各セットに1つの店舗を割り当てる
B.
Vertex AIのデフォルトのデータ分割を使用する
C.
Vertex AIの時系列分割を使用し、販売タイムスタンプ特徴量を時間変数として指定する
D.
Vertex AIのランダム分割を使用し、行の70%を訓練セット、10%を検証セット、20%をテストセットに割り当てる