Professional Machine Learning Engineer

Question 211

あなたは、BigQueryテーブルに保存された訓練データセットを使用して、BigQuery MLの線形回帰モデルを開発しました。テーブルには毎分新しいデータが追加されます。Cloud SchedulerとVertex AI Pipelinesを使用して、毎時のモデル訓練を自動化し、そのモデルを直接推論に使用しています。特徴量前処理ロジックには、過去1時間に受信したデータに対する分位点バケット化とMinMaxスケーリングが含まれます。ストレージと計算のオーバーヘッドを最小限に抑えたいと考えています。どうすべきでしょうか?

A.
訓練時および推論時にモデルにデータを供給する前に、BigQueryでデータを前処理し、ステージングする。
B.
SQLクエリのCREATE MODELステートメントでTRANSFORM句を使用して、必要な統計量を計算する。
C.
Vertex AI Pipelinesの有向非巡回グラフ(DAG)にコンポーネントを作成して必要な統計量を計算し、その統計量を後続のコンポーネントに渡す。
D.
必要な統計量を計算して別のBigQueryテーブルに保存するSQLクエリを作成し、CREATE MODELステートメントでそのテーブルを参照する。
Question 212

あなたは、計算コストの高い前処理操作を必要とするデータセットでモデルをトレーニングしました。予測時にも同じ前処理を実行する必要があります。高スループットのオンライン予測のために、モデルを AI Platform にデプロイしました。どのアーキテクチャを使用すべきですか?

A.
前処理済みデータでトレーニングしたモデルの精度を検証します。生データを使用し、リアルタイムで利用可能な新しいモデルを作成します。新しいモデルをオンライン予測のために AI Platform にデプロイします。
B.
受信した予測リクエストを Pub/Sub トピックに送信します。Dataflow ジョブを使用して受信データを変換します。変換されたデータを使用して AI Platform に予測リクエストを送信します。予測結果を送信用の Pub/Sub キューに書き込みます。
C.
受信した予測リクエストデータを Cloud Spanner にストリーミングします。前処理ロジックを抽象化するためのビューを作成します。新しいレコードがないか、毎秒ビューに問い合わせます。変換されたデータを使用して AI Platform に予測リクエストを送信します。予測結果を送信用の Pub/Sub キューに書き込みます。
D.
受信した予測リクエストを Pub/Sub トピックに送信します。Pub/Sub トピックにメッセージが発行されたときにトリガーされる Cloud Function を設定します。Cloud Function に前処理ロジックを実装します。変換されたデータを使用して AI Platform に予測リクエストを送信します。予測結果を送信用の Pub/Sub キューに書き込みます。
Question 213

あなたはKerasを使用して回帰モデルを学習させるPythonモジュールを開発しました。同じモジュール内に、線形回帰とディープニューラルネットワーク(DNN)という2つのモデルアーキテクチャを開発しました。`training_method`引数を使用して2つの手法のいずれかを選択し、DNNでは`learning_rate`引数と`num_hidden_layers`引数を使用しています。Vertex AIのハイパーチューニングサービスを100トライアルの予算で使用する予定です。学習損失を最小化し、モデルのパフォーマンスを最大化するモデルアーキテクチャとハイパーパラメータの値を特定したいと考えています。どうすればよいでしょうか?

A.
100トライアルで1つのハイパーチューニングジョブを実行します。`num_hidden_layers`を親ハイパーパラメータ`training_method`に基づく条件付きハイパーパラメータとして設定し、`learning_rate`を非条件付きハイパーパラメータとして設定します。
B.
2つの個別のハイパーチューニングジョブを実行します。線形回帰ジョブを50トライアル、DNNジョブを50トライアルです。共通の検証セットで最終的なパフォーマンスを比較し、学習損失が最も少ないハイパーパラメータのセットを選択します。
C.
`training_method`をハイパーパラメータとして1つのハイパーチューニングジョブを50トライアル実行します。学習損失が最も低いアーキテクチャを選択し、さらにそのアーキテクチャと対応するハイパーパラメータを50トライアルでハイパーチューニングします。
D.
100トライアルで1つのハイパーチューニングジョブを実行します。`num_hidden_layers`と`learning_rate`を親ハイパーパラメータ`training_method`に基づく条件付きハイパーパラメータとして設定します。
Question 214

あなたは病院で働いています。必要な患者データを収集する承認を得て、患者の入院リスクスコアを計算するVertex AI表形式AutoMLモデルをトレーニングしました。あなたはそのモデルをデプロイしました。しかし、時間の経過とともに患者の人口統計が変化し、特徴量の相互作用が変わり、予測精度に影響を与える可能性があることを懸念しています。特徴量の相互作用が変化した場合にアラートを受け取り、予測における特徴量の重要度を理解したいと考えています。アラートのアプローチではコストを最小限に抑えたいと考えています。どうすべきでしょうか?

A.
特徴量ドリフトモニタリングジョブを作成します。サンプリングレートを1に設定し、モニタリング頻度を週次に設定します。
B.
特徴量ドリフトモニタリングジョブを作成します。サンプリングレートを0.1に設定し、モニタリング頻度を週次に設定します。
C.
特徴量アトリビューションドリフトモニタリングジョブを作成します。サンプリングレートを1に設定し、モニタリング頻度を週次に設定します。
D.
特徴量アトリビューションドリフトモニタリングジョブを作成します。サンプリングレートを0.1に設定し、モニタリング頻度を週次に設定します。
Question 215

あなたは、標準TFXコンポーネントを使用してTensorFlow Extended (TFX) パイプラインを開発しています。このパイプラインにはデータ前処理ステップが含まれています。パイプラインが本番環境にデプロイされた後、BigQueryに保存されている最大100TBのデータを処理します。データ前処理ステップが効率的にスケールし、メトリクスとパラメータをVertex AI Experimentsに公開し、Vertex ML Metadataを使用してアーティファクトを追跡できるようにする必要があります。パイプラインの実行をどのように構成すべきですか?

A.
Vertex AI PipelinesでTFXパイプラインを実行します。分散処理を行うVertex AI Trainingジョブを使用するようにパイプラインを構成します。
B.
Vertex AI PipelinesでTFXパイプラインを実行します。Dataflowでデータ前処理ステップを実行するために、パイプラインで適切なApache Beamパラメータを設定します。
C.
Apache Beam TFXオーケストレータを使用してDataprocでTFXパイプラインを実行します。Vertex AIでメタデータを公開するために、ジョブで適切なVertex AI権限を設定します。
D.
Apache Beam TFXオーケストレータを使用してDataflowでTFXパイプラインを実行します。Vertex AIでメタデータを公開するために、ジョブで適切なVertex AI権限を設定します。