Professional Machine Learning Engineer

Question 171

あなたは、世界中の何千もの企業に法人向け電子製品を販売する会社で働いています。あなたの会社は、過去の顧客データをBigQueryに保存しています。今後3年間の顧客生涯価値を予測するモデルを構築する必要があります。モデルを構築するための最も簡単なアプローチを使用し、可視化ツールにアクセスできるようにしたいと考えています。どうすべきでしょうか?

A.
Vertex AI Workbenchノートブックを作成して探索的データ分析を実行します。IPythonマジックを使用して、入力特徴量を持つ新しいBigQueryテーブルを作成します。BigQueryコンソールを使用してCREATE MODELステートメントを実行します。ML.EVALUATEおよびML.PREDICTステートメントを使用して結果を検証します。
B.
BigQueryコンソールからCREATE MODELステートメントを実行してAutoMLモデルを作成します。ML.EVALUATEおよびML.PREDICTステートメントを使用して結果を検証します。
C.
Vertex AI Workbenchノートブックを作成して探索的データ分析を実行し、入力特徴量を作成します。特徴量をCSVファイルとしてCloud Storageに保存します。CSVファイルを新しいBigQueryテーブルとしてインポートします。BigQueryコンソールを使用してCREATE MODELステートメントを実行します。ML.EVALUATEおよびML.PREDICTステートメントを使用して結果を検証します。
D.
Vertex AI Workbenchノートブックを作成して探索的データ分析を実行します。IPythonマジックを使用して、入力特徴量を持つ新しいBigQueryテーブルを作成し、モデルを作成し、CREATE MODEL、ML.EVALUATE、およびML.PREDICTステートメントを使用して結果を検証します。
Question 172

あなたは配送会社に勤務しています。荷物の配送状況やトラックの位置情報などの特徴量を時系列で保存・管理するシステムを設計する必要があります。このシステムは、特徴量を低レイテンシで取得し、オンライン予測用のモデルに供給できなければなりません。データサイエンスチームは、モデルトレーニングのために特定の時点の履歴データを取得します。あなたは、最小限の労力で特徴量を保存したいと考えています。どうすべきでしょうか?

A.
特徴量をキー/バリューデータとしてBigtableに保存する。
B.
特徴量をVertex AI Feature Storeに保存する。
C.
特徴量をVertex AIデータセットとして保存し、それらの特徴量を使用してVertex AIエンドポイントでホストされているモデルをトレーニングする。
D.
特徴量をBigQueryのタイムスタンプパーティション分割テーブルに保存し、BigQuery Storage Read APIを使用して特徴量を提供する。
Question 173

あなたは、マネージドVertex AI Workbenchノートブックでテキスト分類モデルのプロトタイプを作成しています。自然言語ツールキット(NLTK)ライブラリを使用して、テキストのトークン化を迅速に実験したいと考えています。このライブラリをJupyterカーネルに追加するにはどうすればよいですか?

A.
ターミナルから `pip install nltk` コマンドを使用してNLTKライブラリをインストールする。
B.
NLTKを使用してテキストをトークン化し、出力をCloud Storageに保存するカスタムDataflowジョブを作成する。
C.
NLTKライブラリを含むカスタムイメージを使用して、新しいVertex AI Workbenchノートブックを作成する。
D.
Jupyterセルから `!pip install nltk --user` コマンドを使用してNLTKライブラリをインストールする。
Question 174

あなたは最近、TensorFlowを使用して表形式データの分類モデルを訓練しました。また、数テラバイトのデータをTFRecord形式の訓練データセットまたは予測データセットに変換できるDataflowパイプラインを作成しました。今回、このモデルを本番運用化し、予測結果を週次のスケジュールでBigQueryテーブルに自動的にアップロードしたいと考えています。どうすべきでしょうか?

A.
モデルをVertex AIにインポートし、Vertex AIエンドポイントにデプロイします。Vertex AI Pipelines上で、DataflowPythonJobOpおよびModelBatchPredictOpコンポーネントを使用するパイプラインを作成します。
B.
モデルをVertex AIにインポートし、Vertex AIエンドポイントにデプロイします。データ処理ロジックを再利用するDataflowパイプラインを作成し、エンドポイントにリクエストを送信し、その後、予測結果をBigQueryテーブルにアップロードします。
C.
モデルをVertex AIにインポートします。Vertex AI Pipelines上で、DataflowPythonJobOpおよびModelBatchPredictOpコンポーネントを使用するパイプラインを作成します。
D.
モデルをBigQueryにインポートします。データ処理ロジックをSQLクエリで実装します。Vertex AI Pipelines上で、BigQueryQueryJobOpおよびBigQueryPredictModelJobOpコンポーネントを使用するパイプラインを作成します。
Question 175

あなたはオンライン食料品店で働いています。最近、ユーザーがウェブサイトにアクセスした際にレシピを推奨するカスタムMLモデルを開発しました。モデルが処理できる1秒あたりのクエリ数(QPS)を使用してコストを最適化するためにVertex AIエンドポイントのマシンタイプを選択し、8 vCPUでアクセラレータなしの単一マシンにデプロイしました。 ホリデーシーズンが近づいており、この期間には通常の1日のトラフィックの4倍のトラフィックが予想されます。モデルが増加した需要に対して効率的にスケールできるようにする必要があります。どうすべきですか?

A.
1. エンドポイントで同じマシンタイプを維持します。 2. CPU使用率の監視ジョブとアラートを設定します。 3. アラートを受信した場合、エンドポイントにコンピュートノードを追加します。
B.
1. エンドポイントのマシンタイプを32 vCPUに変更します。 2. CPU使用率の監視ジョブとアラートを設定します。 3. アラートを受信した場合、必要に応じてvCPUをさらにスケールアップします。
C.
1. エンドポイントで同じマシンタイプを維持し、vCPU使用率に基づいてオートスケーリングを有効にするようにエンドポイントを設定します。 2. CPU使用率の監視ジョブとアラートを設定します。 3. アラートを受信した場合、原因を調査します。
D.
1. エンドポイントのマシンタイプをGPU搭載に変更します。GPU使用率に基づいてオートスケーリングを有効にするようにエンドポイントを設定します。 2. GPU使用率の監視ジョブとアラートを設定します。 3. アラートを受信した場合、原因を調査します。