Professional Machine Learning Engineer

Question 51

あなたはResNet50アーキテクチャに基づいたPyTorchを使用して画像認識モデルを開発しています。あなたのコードは、ローカルのラップトップ上の小さなサブサンプルでは正常に動作しています。完全なデータセットには20万枚のラベル付き画像があります。トレーニングワークロードを迅速に拡張し、コストを最小限に抑えたいと考えています。4つのV100 GPUを使用する予定です。何をすべきですか?

A.
4つのV100 GPUを持つノードプールを備えたGoogle Kubernetes Engineクラスタを作成します。TFJobオペレータを準備し、このノードプールに送信します。
B.
4つのV100 GPUを備えたVertex AI Workbenchユーザー管理ノートブックインスタンスを作成し、それを使用してモデルをトレーニングします。
C.
Setuptoolsでコードをパッケージ化し、事前ビルド済みコンテナを使用します。必要なGPUを含むカスタムティアを使用して、Vertex AIでモデルをトレーニングします。
D.
トレーニングを起動するすべての依存関係を持つCompute Engine VMを構成します。必要なGPUを含むカスタムティアを使用して、Vertex AIでモデルをトレーニングします。
Question 52

あなたは、一連の予測特徴量を使用して住宅価格を予測するために、TensorFlowでDNNリグレッサーを訓練しました。デフォルトの浮動小数点精度はtf.float64で、標準のTensorFlow Estimatorを使用しています。 (画像参照: estimator = tf.estimator.DNNRegressor( feature_columns=[YOUR_LIST_OF_FEATURES], hidden_units=[1024, 512, 256], dropout=None) ) モデルの性能は良好ですが、本番環境にデプロイする直前に、現在のサービングレイテンシが90パーセンタイルで10ミリ秒であり、現在CPUでサービングしていることがわかりました。本番環境の要件では、90パーセンタイルで8ミリ秒のモデルレイテンシが求められています。レイテンシ要件を満たすためであれば、わずかな性能低下は許容できます。 したがって、あなたの計画は、モデルの予測がどの程度低下するかを評価しながら、レイテンシを改善することです。サービングレイテンシを迅速に低下させるために、最初に何を試すべきですか?

Question
A.
CPUサービングからGPUサービングに切り替える。
B.
浮動小数点精度をtf.float16に下げることで、SavedModelに量子化を適用する。
C.
ドロップアウト率を0.8に上げてモデルを再訓練する。
D.
TensorFlow Servingのパラメータを調整して、_PREDICTモードでドロップアウト率を0.8に上げる。
Question 53

あなたは製造会社のデータサイエンスチームで働いています。あなたは、数億件のレコードを持つ会社の過去の販売データをレビューしています。探索的データ分析のために、平均、中央値、最頻値などの記述統計量を計算し、仮説検定のための複雑な統計的検定を実施し、特徴量の経時的な変動をプロットする必要があります。計算リソースを最小限に抑えながら、分析にできるだけ多くの販売データを使用したいと考えています。あなたは何をすべきですか?

A.
Google データポータルで時系列プロットを可視化します。データセットを Vertex AI Workbench ユーザー管理ノートブックにインポートします。このデータを使用して記述統計量を計算し、統計分析を実行します。
B.
Vertex AI Workbench ユーザー管理ノートブックインスタンスを起動し、データセットをインポートします。このデータを使用して統計分析と視覚的分析を作成します。
C.
BigQuery を使用して記述統計量を計算します。Vertex AI Workbench ユーザー管理ノートブックを使用して時系列プロットを可視化し、統計分析を実行します。
D.
BigQuery を使用して記述統計量を計算し、Google データポータルを使用して時系列プロットを可視化します。Vertex AI Workbench ユーザー管理ノートブックを使用して統計分析を実行します。
Question 54

あなたのデータサイエンスチームは、様々な特徴量、モデルアーキテクチャ、ハイパーパラメータを用いて迅速に実験を行う必要があります。彼らは様々な実験の精度メトリクスを追跡し、APIを使用して時系列でメトリクスを照会する必要があります。手作業を最小限に抑えながら実験を追跡し報告するためには、何を使用すべきでしょうか?

A.
Vertex AI Pipelines を使用して実験を実行します。Vertex AI API を使用して MetadataStore に保存された結果を照会します。
B.
Vertex AI Training を使用して実験を実行します。精度メトリクスを BigQuery に書き込み、BigQuery API を使用して結果を照会します。
C.
Vertex AI Training を使用して実験を実行します。精度メトリクスを Cloud Monitoring に書き込み、Monitoring API を使用して結果を照会します。
D.
Vertex AI Workbench のユーザー管理ノートブックを使用して実験を実行します。共有 Google Sheets ファイルに結果を収集し、Google Sheets API を使用して結果を照会します。
Question 55

あなたは、個人識別情報(PII)と見なされるいくつかの値を含むBigQueryに保存されたデータを使用してMLモデルをトレーニングしています。モデルをトレーニングする前に、データセットの機密性を低減する必要があります。すべての列がモデルにとって重要です。どのように進めるべきですか?

A.
Dataflowを使用して、BigQueryから機密データを含む列を取り込み、その後、各機密列の値をランダム化します。
B.
Cloud Data Loss Prevention (DLP) APIを使用して機密データをスキャンし、DataflowとDLP APIを使用して、フォーマット保持暗号化(FPE)で機密値を暗号化します。
C.
Cloud Data Loss Prevention (DLP) APIを使用して機密データをスキャンし、Dataflowを使用して、ソルト付きのAES-256暗号化アルゴリズムですべての機密データを置き換えます。
D.
トレーニングの前に、BigQueryを使用して機密データを含まない列のみを選択します。機密値が権限のない個人によってアクセスされないように、データの承認済みビューを作成します。