Professional Machine Learning Engineer

Question 121

あなたは、手術スケジュールの最適化を目指す病院に勤務しています。予定手術数と使用ベッド数の関係を利用するモデルを作成する必要があります。予定された手術に基づいて、事前に患者に必要なベッド数を毎日予測したいと考えています。病院の1年分のデータが365行で整理されています。 各日のデータには以下の変数が含まれます: • 手術予定数 • 使用ベッド数 • 日付 モデル開発とテストの速度を最大化したいと考えています。どうすべきでしょうか?

A.
BigQueryテーブルを作成します。BigQuery MLを使用して回帰モデルを構築し、ベッド数を目的変数、手術予定数と日付特徴量(曜日など)を予測変数とします。
B.
BigQueryテーブルを作成します。BigQuery MLを使用してARIMAモデルを構築し、ベッド数を目的変数、日付を時間変数とします。
C.
Vertex AI表形式データセットを作成します。AutoML回帰モデルを訓練し、ベッド数を目的変数、予定された軽微な手術数と日付特徴量(曜日など)を予測変数とします。
D.
Vertex AI表形式データセットを作成します。Vertex AI AutoML Forecastingモデルを訓練し、ベッド数を目的変数、手術予定数を共変量、日付を時間変数とします。
Question 122

あなたは最近、TensorFlowでワイド&ディープモデルを開発しました。BigQueryの生データに対してインスタンスレベルの変換を実行するSQLスクリプトを使用して、学習データセットを生成しました。毎週モデルを再学習するための学習パイプラインを作成する必要があります。学習済みモデルは、日次のレコメンデーションを生成するために使用されます。モデルの開発時間と学習時間を最小限に抑えたいと考えています。学習パイプラインはどのように開発すべきですか?

A.
Kubeflow Pipelines SDKを使用してパイプラインを実装します。BigQueryJobOpコンポーネントを使用して前処理スクリプトを実行し、CustomTrainingJobOpコンポーネントを使用してVertex AI学習ジョブを起動します。
B.
Kubeflow Pipelines SDKを使用してパイプラインを実装します。DataflowPythonJobOpコンポーネントを使用してデータを前処理し、CustomTrainingJobOpコンポーネントを使用してVertex AI学習ジョブを起動します。
C.
TensorFlow Extended SDKを使用してパイプラインを実装します。BigQueryエクゼキュータを備えたExampleGenコンポーネントを使用してデータを取り込み、Transformコンポーネントを使用してデータを前処理し、Trainerコンポーネントを使用してVertex AI学習ジョブを起動します。
D.
TensorFlow Extended SDKを使用してパイプラインを実装します。モデルのinput_fnの一部として前処理ステップを実装します。BigQueryエクゼキュータを備えたExampleGenコンポーネントを使用してデータを取り込み、Trainerコンポーネントを使用してVertex AI学習ジョブを起動します。
Question 123

あなたは、大規模なデータセットを使用して、あなたの会社向けのカスタム言語モデルをトレーニングしています。Vertex AIでリダクションサーバー戦略を使用する予定です。分散トレーニングジョブのワーカープールを設定する必要があります。どうすればよいですか?

A.
最初の2つのワーカープールのマシンにGPUを設定し、トレーニングコードが実行されるコンテナイメージを使用するように設定します。3番目のワーカープールにGPUを設定し、リダクションサーバーコンテナイメージを使用するように設定します。
B.
最初の2つのワーカープールのマシンにGPUを設定し、トレーニングコードが実行されるコンテナイメージを使用するように設定します。3番目のワーカープールにはアクセラレータなしでリダクションサーバーコンテナイメージを使用し、帯域幅を優先するマシンタイプを選択するように設定します。
C.
最初の2つのワーカープールのマシンにTPUを設定し、トレーニングコードが実行されるコンテナイメージを使用するように設定します。3番目のワーカープールにはアクセラレータなしでリダクションサーバーコンテナイメージを使用し、帯域幅を優先するマシンタイプを選択するように設定します。
D.
最初の2つのワーカープールのマシンにTPUを設定し、トレーニングコードが実行されるコンテナイメージを使用するように設定します。3番目のワーカープールにTPUを設定し、リダクションサーバーコンテナイメージを使用するように設定します。
Question 124

AI Platformに画像分類モデルの複数のバージョンをデプロイしました。時間経過に伴うモデルバージョンのパフォーマンスを監視したいと考えています。この比較はどのように行うべきですか?

A.
ホールドアウトデータセットで各モデルの損失パフォーマンスを比較する。
B.
検証データで各モデルの損失パフォーマンスを比較する。
C.
What-If Toolを使用して、各モデルの受信者動作特性(ROC)曲線を比較する。
D.
継続的評価機能を使用して、モデル間の平均適合率(mAP)を比較する。
Question 125

あなたは、バッチDataflowパイプラインで前処理されたデータを使用してモデルを訓練しました。あなたのユースケースではリアルタイム推論が必要です。訓練時とサービング時でデータ前処理ロジックが一貫して適用されるようにしたいと考えています。どうすべきですか?

A.
データ検証を実行し、パイプラインへの入力データがエンドポイントへの入力データと同じ形式であることを確認します。
B.
バッチデータパイプラインの変換コードをリファクタリングして、パイプラインの外部で使用できるようにします。エンドポイントで同じコードを使用します。
C.
バッチデータパイプラインの変換コードをリファクタリングして、パイプラインの外部で使用できるようにします。このコードをエンドポイントのエンドユーザーと共有します。
D.
時間ウィンドウを使用してリアルタイムリクエストをバッチ処理し、その後Dataflowパイプラインを使用してバッチ処理されたリクエストを前処理します。前処理されたリクエストをエンドポイントに送信します。