Professional Machine Learning Engineer

Question 181

あなたはオンライン衣料品店のレコメンデーションエンジンを開発しています。過去の顧客取引データはBigQueryとCloud Storageに保存されています。探索的データ分析(EDA)、前処理、モデルトレーニングを実行する必要があります。さまざまな種類のアルゴリズムを試しながら、これらのEDA、前処理、トレーニングのステップを再実行する予定です。実験を行う際に、これらのステップの実行にかかるコストと開発労力を最小限に抑えたいと考えています。どのように環境を設定すべきですか?

A.
デフォルトのVMインスタンスを使用してVertex AI Workbenchユーザー管理ノートブックを作成し、Jupyterで%%bigqueryマジックコマンドを使用してテーブルをクエリする。
B.
Vertex AI Workbenchマネージドノートブックを作成し、JupyterLabインターフェースから直接テーブルを参照およびクエリする。
C.
Dataproc Hub上にVertex AI Workbenchユーザー管理ノートブックを作成し、Jupyterで%%bigqueryマジックコマンドを使用してテーブルをクエリする。
D.
Dataprocクラスタ上にVertex AI Workbenchマネージドノートブックを作成し、spark-bigquery-connectorを使用してテーブルにアクセスする。
Question 182

あなたは最近、モデルをVertex AIエンドポイントにデプロイし、Vertex AI Feature Storeでオンラインサービングを設定しました。Feature Storeを更新するために、毎日のバッチ取り込みジョブを設定しました。バッチ取り込みジョブ中に、Feature StoreのオンラインサービングノードのCPU使用率が高く、特徴量取得のレイテンシが高いことに気づきました。毎日のバッチ取り込み中にオンラインサービングのパフォーマンスを改善する必要があります。どうすればよいですか?

A.
バッチ取り込みジョブの前に、Feature Storeのオンラインサービングノードの数を増やすスケジュールを設定する
B.
Feature Storeのオンラインサービングノードの自動スケーリングを有効にする
C.
Vertex AIエンドポイントのデプロイ済みモデルの予測ノードに対して自動スケーリングを有効にする
D.
バッチ取り込みジョブのImportFeatureValuesリクエストでworker_countを増やす
Question 183

あなたは、表形式データに基づいたカスタムTensorFlow分類モデルを開発しています。生データはBigQueryに保存されており、数億行のデータを含み、カテゴリ特徴量と数値特徴量の両方を含んでいます。一部の数値特徴量にはMaxMinスケーラーを使用し、SKU名などの一部のカテゴリ特徴量にはワンホットエンコーディングを適用する必要があります。モデルは複数のエポックでトレーニングされます。ソリューションの労力とコストを最小限に抑えたいと考えています。どうすべきでしょうか?

A.
1. 数値特徴量をスケーリングするために、別のルックアップテーブルを作成するSQLクエリを記述します。 2. テキスト特徴量をエンコードするために、Hugging FaceのTensorFlowベースのモデルをBigQueryにデプロイします。 3. 結果のBigQueryビューをVertex AI Trainingに入力します。
B.
1. BigQueryを使用して数値特徴量をスケーリングします。 2. 特徴量をVertex AI Trainingに入力します。 3. TensorFlowにワンホットテキストエンコーディングを実行させます。
C.
1. DataflowでTFXコンポーネントを使用して、テキスト特徴量をエンコードし、数値特徴量をスケーリングします。 2. 結果をTFRecordsとしてCloud Storageにエクスポートします。 3. データをVertex AI Trainingに入力します。
D.
1. 数値特徴量をスケーリングするために、別のルックアップテーブルを作成するSQLクエリを記述します。 2. BigQueryでワンホットテキストエンコーディングを実行します。 3. 結果のBigQueryビューをVertex AI Trainingに入力します。
Question 184

あなたは小売企業に勤務しています。各顧客の解約確率を決定するモデルを構築するタスクを任されました。予測結果が解釈可能である必要があります。これにより、その結果をリスクのある顧客をターゲットとしたマーケティングキャンペーンの開発に利用できます。何をすべきでしょうか?

A.
Vertex AI Workbenchノートブックインスタンスでランダムフォレスト回帰モデルを構築します。モデルがトレーニングされた後、特徴量の重要度を生成するようにモデルを設定します。
B.
AutoML表形式回帰モデルを構築します。予測を行う際に説明を生成するようにモデルを設定します。
C.
Vertex AIカスタムトレーニングを使用して、カスタムTensorFlowニューラルネットワークを構築します。予測を行う際に説明を生成するようにモデルを設定します。
D.
Vertex AI Workbenchノートブックインスタンスでランダムフォレスト分類モデルを構築します。モデルがトレーニングされた後、特徴量の重要度を生成するようにモデルを設定します。
Question 185

あなたは、ユーザーの食事計画を支援するアプリケーションを開発している会社に勤務しています。あなたは機械学習を使用してレシピのコーパスをスキャンし、記載されている各材料(例:ニンジン、米、パスタ)と各調理器具(例:ボウル、鍋、スプーン)を抽出したいと考えています。各レシピは非構造化テキストファイルに保存されています。あなたは何をすべきですか?

A.
Vertex AIでエンティティ抽出用のテキストデータセットを作成します。「材料」と「調理器具」という2つのエンティティを作成し、各エンティティについて少なくとも200の例にラベルを付けます。これらのエンティティタイプの出現箇所を抽出するために、AutoMLエンティティ抽出モデルをトレーニングします。ホールドアウトデータセットでパフォーマンスを評価します。
B.
Vertex AIで多ラベルテキスト分類データセットを作成します。テストデータセットを作成し、各レシピに対応する材料と調理器具のラベルを付けます。多クラス分類モデルをトレーニングします。ホールドアウトデータセットでモデルのパフォーマンスを評価します。
C.
Natural Language APIのエンティティ分析メソッドを使用して、各レシピから材料と調理器具を抽出します。事前にラベル付けされたデータセットでモデルのパフォーマンスを評価します。
D.
Vertex AIでエンティティ抽出用のテキストデータセットを作成します。材料と調理器具の種類と同じ数のエンティティを作成します。それらのエンティティを抽出するためにAutoMLエンティティ抽出モデルをトレーニングします。ホールドアウトデータセットでモデルのパフォーマンスを評価します。