Professional Machine Learning Engineer

Question 146

あなたの組織のコールセンターから、各通話における顧客の感情を分析するモデルの開発を依頼されました。コールセンターは毎日100万件以上の通話を受信し、データはCloud Storageに保存されています。収集されたデータは発信元のリージョン外に持ち出すことはできず、個人を特定できる情報(PII)を保存または分析することもできません。データサイエンスチームは、SQL ANSI-2011準拠のインターフェースを必要とするサードパーティ製の可視化およびアクセス用ツールを使用しています。データ処理と分析のためのコンポーネントを選択する必要があります。データパイプラインはどのように設計すべきですか?

Data pipeline design requirements for call center sentiment analysis.
A.
1= Dataflow, 2= BigQuery
B.
1 = Pub/Sub, 2= Datastore
C.
1 = Dataflow, 2 = Cloud SQL
D.
1 = Cloud Function, 2= Cloud SQL
Question 147

あなたは、複数のGoogle Cloudプロジェクトにまたがるデータを使用して、Vertex AIでモデルをトレーニングしています。モデルの異なるバージョンのパフォーマンスを検索、追跡、比較する必要があります。MLワークフローに含めるべきGoogle Cloudサービスはどれですか?

A.
Dataplex、Vertex AI Feature Store、Vertex AI TensorBoard
B.
Vertex AI Pipelines、Vertex AI Feature Store、Vertex AI Experiments
C.
Dataplex、Vertex AI Experiments、Vertex AI ML Metadata
D.
Vertex AI Pipelines、Vertex AI Experiments、Vertex AI Metadata
Question 148

あなたはKerasとTensorFlowを使用して不正検知モデルを開発しています。顧客の取引記録はBigQueryの大規模なテーブルに保存されています。モデルの訓練に使用する前に、これらの記録をコスト効率よく効率的な方法で前処理する必要があります。訓練されたモデルは、BigQueryでバッチ推論を実行するために使用されます。前処理ワークフローはどのように実装すべきですか?

A.
Apache Sparkを使用して前処理パイプラインを実装し、Dataprocでパイプラインを実行します。前処理済みのデータはCSVファイルとしてCloud Storageバケットに保存します。
B.
データをpandas DataFrameにロードします。pandasの変換機能を使用して前処理ステップを実装し、DataFrame上で直接モデルを訓練します。
C.
SQLを使用してBigQuery内で前処理を実行します。TensorFlowのBigQueryClientを使用して、BigQueryから直接データを読み取ります。
D.
Apache Beamを使用して前処理パイプラインを実装し、Dataflowでパイプラインを実行します。前処理済みのデータはCSVファイルとしてCloud Storageバケットに保存します。
Question 149

TensorFlowを使用して画像分類モデルを学習する必要があります。あなたのデータセットはCloud Storageディレクトリにあり、数百万のラベル付き画像が含まれています。モデルを学習する前に、データを準備する必要があります。データの前処理とモデル学習のワークフローを、可能な限り効率的で、スケーラブル、かつ低メンテナンスにしたいと考えています。どうすべきでしょうか?

A.
1. Cloud StorageディレクトリにシャーディングされたTFRecordファイルを作成するDataflowジョブを作成します。 2. 学習スクリプトでtf.data.TFRecordDatasetを参照します。 3. V100 GPUを使用してVertex AI Trainingでモデルを学習します。
B.
1. 画像を複数のCloud Storageディレクトリに移動するDataflowジョブを作成します。各ディレクトリは対応するラベルに従って名前が付けられます。 2. 学習スクリプトでtfds.folder_dataset:ImageFolderを参照します。 3. V100 GPUを使用してVertex AI Trainingでモデルを学習します。
C.
1. n1-standard-64 V100 GPU Vertex AI Workbenchインスタンスを使用するJupyterノートブックを作成します。 2. インスタンス内のディレクトリにシャーディングされたTFRecordファイルを作成するPythonスクリプトを作成します。 3. 学習スクリプトでtf.data.TFRecordDatasetを参照します。 4. Workbenchインスタンスを使用してモデルを学習します。
D.
1. n1-standard-64 V100 GPU Vertex AI Workbenchインスタンスを使用するJupyterノートブックを作成します。 2. 画像を複数のCloud StorageディレクトリにコピーするPythonスクリプトを作成します。各ディレクトリは対応するラベルに従って名前が付けられます。 3. 学習スクリプトでtfds.folder_dataset.ImageFolderを参照します。 4. Workbenchインスタンスを使用してモデルを学習します。
Question 150

あなたはカスタム画像分類モデルを構築しており、Vertex AI Pipelines を使用してエンドツーエンドのトレーニングを実装する予定です。あなたのデータセットは画像で構成されており、モデルのトレーニングに使用する前に前処理を行う必要があります。前処理ステップには、画像のリサイズ、グレースケールへの変換、特徴量の抽出が含まれます。あなたは既に前処理タスクのためのいくつかのPython関数を実装しています。パイプラインではどのコンポーネントを使用すべきですか?

A.
DataprocSparkBatchOp と CustomTrainingJobOp
B.
DataflowPythonJobOp、WaitGcpResourcesOp、そして CustomTrainingJobOp
C.
dsl.ParallelFor、dsl.component、そして CustomTrainingJobOp
D.
ImageDatasetImportDataOp、dsl.component、そして AutoMLImageTrainingJobRunOp