Professional Machine Learning Engineer

Question 191

あなたはVertex AI WorkbenchノートブックでMLモデルを開発しています。さまざまなアプローチを用いた実験中にアーティファクトを追跡し、モデルを比較したいと考えています。また、モデルの実装を反復する中で、成功した実験を迅速かつ容易に本番環境へ移行する必要があります。あなたは何をすべきですか?

A.
1. Vertex SDKを実験名で初期化します。各実験のパラメータとメトリクスをログに記録し、データセットとモデルのアーティファクトを各実行の入力および出力として添付します。 2. 成功した実験の後、Vertex AIパイプラインを作成します。
B.
1. Vertex SDKを実験名で初期化します。各実験のパラメータとメトリクスをログに記録し、データセットをCloud Storageバケットに保存し、モデルをVertex AI Model Registryにアップロードします。 2. 成功した実験の後、Vertex AIパイプラインを作成します。
C.
1. 追跡したいパラメータをPipelineJobの引数として持つVertex AIパイプラインを作成します。パイプライン内のコンポーネントの入力および出力として、Kubeflow Pipelines DSLのMetrics、Model、Datasetアーティファクトタイプを使用します。 2. ジョブを送信する際に、パイプラインを実験に関連付けます。
D.
1. Vertex AIパイプラインを作成します。パイプライン内のコンポーネントの入力および出力として、Kubeflow Pipelines DSLのDatasetおよびModelアーティファクトタイプを使用します。 2. トレーニングコンポーネント内で、Vertex AI SDKを使用して実験ランを作成します。log_paramsおよびlog_metrics関数を設定して、実験のパラメータとメトリクスを追跡します。
Question 192

あなたは最近、新しいGoogle Cloudプロジェクトを作成しました。Cloud ShellからVertex AIパイプラインジョブを送信できることをテストした後、Vertex AI Workbenchのユーザー管理ノートブックインスタンスを使用して、そのインスタンスからコードを実行したいと考えています。インスタンスを作成してコードを実行しましたが、今回は権限不足エラーでジョブが失敗しました。どうすればよいですか?

A.
作成したWorkbenchインスタンスが、使用するVertex AIパイプラインリソースと同じリージョンにあることを確認する。
B.
Vertex AI Workbenchインスタンスが、使用するVertex AIパイプラインリソースと同じサブネットワーク上にあることを確認する。
C.
Vertex AI WorkbenchインスタンスにIdentity and Access Management (IAM) の Vertex AI ユーザーロールが割り当てられていることを確認する。
D.
Vertex AI WorkbenchインスタンスにIdentity and Access Management (IAM) の Notebooks Runner ロールが割り当てられていることを確認する。
Question 193

あなたは半導体製造会社に勤務しています。品質管理プロセスを自動化するリアルタイムアプリケーションを作成する必要があります。組立ラインの最後に、各半導体の高解像度画像がリアルタイムで撮影されます。これらの写真は、各半導体のバッチ番号、シリアル番号、寸法、重量を含む表形式データとともにCloud Storageバケットにアップロードされます。モデルの精度を最大化しながら、モデルのトレーニングとサービングを設定する必要があります。どうすればよいですか?

A.
Vertex AIデータラベリングサービスを使用して画像にラベルを付け、AutoML画像分類モデルをトレーニングします。モデルをデプロイし、画像が不良クラスに分類されたときにPub/Subがメッセージを公開するように設定します。
B.
Vertex AIデータラベリングサービスを使用して画像にラベルを付け、AutoML画像分類モデルをトレーニングします。ジョブが完了したときにPub/Subメッセージを公開する日次バッチ予測ジョブをスケジュールします。
C.
画像を埋め込み表現に変換します。このデータをBigQueryにインポートし、2つのクラスターを持つBigQuery ML K-meansクラスタリングモデルをトレーニングします。モデルをデプロイし、半導体のデータが不良クラスターに分類されたときにPub/Subがメッセージを公開するように設定します。
D.
表形式データをBigQueryにインポートし、Vertex AIデータラベリングサービスを使用してデータにラベルを付け、AutoML表形式分類モデルをトレーニングします。モデルをデプロイし、半導体のデータが不良クラスに分類されたときにPub/Subがメッセージを公開するように設定します。
Question 194

あなたは急成長中のソーシャルメディア企業に勤務しています。あなたのチームは、オンプレミスのCPUクラスタでTensorFlowのレコメンダーモデルを構築しています。データには、数十億件の過去のユーザーイベントと10万個のカテゴリ特徴量が含まれています。データが増加するにつれて、モデルのトレーニング時間が増加していることに気づきました。あなたはモデルをGoogle Cloudに移行することを計画しています。トレーニング時間を最小限に抑え、かつ最もスケーラブルなアプローチを使用したいと考えています。どうすべきでしょうか?

A.
TPUv3 Podスライスを備えたTPU VMを使用してトレーニングジョブをデプロイし、TPUEmbedding APIを使用する
B.
CPUを使用する自動スケーリングGoogle Kubernetes Engineクラスタにトレーニングジョブをデプロイする
C.
BigQuery MLを使用して行列分解モデルのトレーニングジョブをデプロイする
D.
A100 GPUを搭載したCompute Engineインスタンスを使用してトレーニングジョブをデプロイし、tf.nn.embedding_lookup APIを使用する
Question 195

あなたは、Vertex AI Pipelines、Vertex AI Training、Vertex AI Experiments、およびVertex AI Endpointsを使用して、表形式データの回帰モデルの更新版をトレーニングし、デプロイしています。モデルはVertex AIエンドポイントにデプロイされ、ユーザーはVertex AIエンドポイントを使用してモデルを呼び出します。特徴量データの分布が大幅に変化したときにメールを受信し、トレーニングパイプラインを再トリガーしてモデルの更新版をデプロイできるようにしたいと考えています。どうすべきですか?

A.
Vertex AI Model Monitoring を使用します。エンドポイントで予測ドリフトモニタリングを有効にし、通知メールを指定します。
B.
Cloud Logging で、Vertex AI エンドポイントのログを使用してログベースのアラートを作成します。アラートがトリガーされたときに Cloud Logging がメールを送信するように設定します。
C.
Cloud Monitoring で、ログベースのメトリクスと、そのメトリクスに対するしきい値アラートを作成します。アラートがトリガーされたときに Cloud Monitoring がメールを送信するように設定します。
D.
エンドポイントのコンテナログを BigQuery にエクスポートします。エクスポートされたログに対して SQL クエリを実行し、メールを送信する Cloud Function を作成します。Cloud Scheduler を使用して Cloud Function をトリガーします。