Professional Machine Learning Engineer

Question 36

あなたはサイバーセキュリティ組織向けのシステムログ異常検知モデルに取り組んでいます。TensorFlowを使用してモデルを開発し、リアルタイム予測に使用する予定です。Pub/Sub経由でデータを取り込み、結果をBigQueryに書き込むためのDataflowパイプラインを作成する必要があります。サービングレイテンシを可能な限り最小限に抑えたいと考えています。どうすべきでしょうか?

A.
モデル予測ロジックをCloud Runにコンテナ化し、Dataflowから呼び出す。
B.
モデルを依存関係としてDataflowジョブに直接ロードし、予測に使用する。
C.
モデルをVertex AIエンドポイントにデプロイし、Dataflowジョブでこのエンドポイントを呼び出す。
D.
モデルをGoogle Kubernetes Engine上のTFServingコンテナにデプロイし、Dataflowジョブで呼び出す。
Question 37

あなたはモバイルゲーム会社のMLエンジニアです。あなたのチームのデータサイエンティストが最近TensorFlowモデルを訓練し、あなたはこのモデルをモバイルアプリケーションにデプロイする責任を負っています。現在のモデルの推論レイテンシが本番環境の要件を満たしていないことが判明しました。推論時間を50%削減する必要があり、レイテンシ要件を達成するためであれば、モデル精度のわずかな低下は許容できます。新しいモデルを訓練せずに、レイテンシを削減するために最初に試すべきモデル最適化手法はどれですか?

A.
重みプルーニング(枝刈り)
B.
動的範囲量子化
C.
モデル蒸留
D.
次元削減
Question 38

あなたは銀行のデータサイエンスチームに所属しており、ローンのデフォルトリスクを予測するMLモデルを作成しています。あなたは、BigQueryテーブルに数億レコードのトレーニングデータを収集し、クレンジングしました。そして今、TensorFlowとVertex AIを使用して、このデータで複数のモデルを開発し比較したいと考えています。スケーラビリティを考慮しつつ、データ取り込み段階でのボトルネックを最小限に抑えたいと考えています。どうすべきでしょうか?

A.
BigQueryクライアントライブラリを使用してデータをDataFrameにロードし、tf.data.Dataset.from_tensor_slices()を使用してそれを読み込みます。
B.
Cloud StorageにデータをCSVファイルとしてエクスポートし、tf.data.TextLineDataset()を使用してそれらを読み込みます。
C.
データをTFRecordsに変換し、tf.data.TFRecordDataset()を使用してそれらを読み込みます。
D.
TensorFlow I/OのBigQuery Readerを使用してデータを直接読み込みます。
Question 39

あなたは最近、概念実証(POC)の深層学習モデルを作成しました。全体的なアーキテクチャには満足していますが、いくつかのハイパーパラメータの値を決定する必要があります。モデルで使用されるカテゴリカル特徴量の適切な埋め込み次元と最適な学習率の両方を決定するために、Vertex AIでハイパーパラメータチューニングを実行したいと考えています。以下の設定を行います。 • 埋め込み次元については、型を整数(INTEGER)とし、最小値を16、最大値を64に設定します。 • 学習率については、型を倍精度浮動小数点数(DOUBLE)とし、最小値を10e-05、最大値を10e-02に設定します。 デフォルトのベイズ最適化チューニングアルゴリズムを使用しており、モデルの精度を最大化したいと考えています。トレーニング時間は問題ではありません。各ハイパーパラメータのスケーリングと最大並列試行数(maxParallelTrials)はどのように設定すべきですか?

A.
埋め込み次元には線形スケール(UNIT_LINEAR_SCALE)を、学習率には対数スケール(UNIT_LOG_SCALE)を使用し、多数の並列試行を行います。
B.
埋め込み次元には線形スケール(UNIT_LINEAR_SCALE)を、学習率には対数スケール(UNIT_LOG_SCALE)を使用し、少数の並列試行を行います。
C.
埋め込み次元には対数スケール(UNIT_LOG_SCALE)を、学習率には線形スケール(UNIT_LINEAR_SCALE)を使用し、多数の並列試行を行います。
D.
埋め込み次元には対数スケール(UNIT_LOG_SCALE)を、学習率には線形スケール(UNIT_LINEAR_SCALE)を使用し、少数の並列試行を行います。
Question 40

あなたは大手企業のデータサイエンス部門のディレクターです。あなたのデータサイエンスチームは最近、トレーニングパイプラインをオーケストレーションするためにKubeflow Pipelines SDKの使用を開始しました。チームはカスタムPythonコードをKubeflow Pipelines SDKに統合するのに苦労しています。彼らのコードをKubeflow Pipelines SDKに迅速に統合するために、どのように指示すべきですか?

A.
`func_to_container_op`関数を使用して、Pythonコードからカスタムコンポーネントを作成する。
B.
Kubeflow Pipelines SDKで利用可能な定義済みコンポーネントを使用してDataprocにアクセスし、そこでカスタムコードを実行する。
C.
カスタムPythonコードをDockerコンテナにパッケージ化し、`load_component_from_file`関数を使用してコンテナをパイプラインにインポートする。
D.
カスタムPythonコードをCloud Functionsにデプロイし、Kubeflow Pipelinesを使用してCloud Functionをトリガーする。