Professional Machine Learning Engineer

Question 86

あなたは食品製造会社に勤務しています。あなたの会社の過去の販売データはBigQueryに保存されています。BigQueryからデータを読み取り、将来の販売を予測する複数のTensorFlowモデルをトレーニングするために、Vertex AIのカスタムトレーニングサービスを使用する必要があります。モデルの実験を開始する前に、多数の特徴量に対してmin-maxスケーリングとバケット化を実行するデータ前処理アルゴリズムを実装する予定です。前処理の時間、コスト、開発工数を最小限に抑えたいと考えています。このワークフローをどのように構成すべきですか?

A.
spark-bigquery-connectorを使用するSparkで変換処理を記述し、Dataprocを使用してデータを前処理します。
B.
BigQuery内でデータを変換するためにSQLクエリを記述します。
C.
TensorFlowモデルの前処理レイヤーとして変換処理を追加します。
D.
BigQueryIOコネクタを使用してデータを取り込み、処理し、BigQueryに書き戻すDataflowパイプラインを作成します。
Question 87

あなたは2つのステップを含むVertex AIパイプラインを作成しました。最初のステップは10TBのデータを前処理し、約1時間で完了し、結果をCloud Storageバケットに保存します。2番目のステップは、処理済みのデータを使用してモデルをトレーニングします。異なるアルゴリズムをテストできるようにモデルのコードを更新する必要があります。パイプラインの変更を最小限に抑えつつ、パイプラインの実行時間とコストを削減したいと考えています。どうすればよいでしょうか?

A.
パイプラインパラメータと追加のパイプラインステップを追加します。パラメータ値に応じて、パイプラインステップはデータの前処理を実行またはスキップし、モデルトレーニングを開始します。
B.
前処理ステップなしで別のパイプラインを作成し、モデルトレーニング用に前処理済みのCloud Storageファイルの場所をハードコードします。
C.
データ前処理ステップのために、コンピューティング最適化マシンファミリーからより多くのCPUとRAMを備えたマシンを構成します。
D.
パイプラインジョブのキャッシュを有効にし、モデルトレーニングステップのキャッシュを無効にします。
Question 88

あなたは銀行に勤務しています。融資申請を人間による審査のためにフラグ付けすべきかどうかを予測するカスタムモデルを作成しました。入力特徴量はBigQueryテーブルに保存されています。モデルは良好に機能しており、本番環境にデプロイする予定です。コンプライアンス要件により、モデルは各予測に対する説明を提供する必要があります。あなたは、最小限の労力でこの機能をモデルコードに追加し、可能な限り正確な説明を提供したいと考えています。どうすべきでしょうか?

A.
統合されたVertex Explainable AIを使用して、BigQueryデータを用いてAutoML表形式モデルを作成する。
B.
BigQuery MLディープニューラルネットワークモデルを作成し、num_integral_stepsパラメータを指定してML.EXPLAIN_PREDICTメソッドを使用する。
C.
カスタムモデルをVertex AI Model Registryにアップロードし、入力ベースラインを用いたサンプリングされたShapleyを使用して特徴ベースの帰属を構成する。
D.
カスタムサービングコンテナを更新して、予測出力にサンプリングされたShapleyベースの説明を含める。
Question 89

あなたは最近、オンラインサービングに使用するモデルをPythonでXGBoostを使用して訓練しました。あなたのモデル予測サービスは、Google Kubernetes Engine (GKE) クラスタ上で実行されているGolangで実装されたバックエンドサービスから呼び出されます。あなたのモデルには前処理および後処理ステップが必要です。これらの処理ステップをサービング時に実行されるように実装する必要があります。あなたは、コードの変更とインフラストラクチャのメンテナンスを最小限に抑え、できるだけ迅速にモデルを本番環境にデプロイしたいと考えています。どうすべきでしょうか?

A.
FastAPIを使用してHTTPサーバーを実装します。そのHTTPサーバーを実行するDockerイメージを作成し、組織のGKEクラスタにデプロイします。
B.
FastAPIを使用してHTTPサーバーを実装します。そのHTTPサーバーを実行するDockerイメージを作成し、そのイメージをVertex AI モデルレジストリにアップロードして、Vertex AI エンドポイントにデプロイします。
C.
Predictorインターフェースを使用してカスタム予測ルーチンを実装します。カスタムコンテナをビルドし、そのコンテナをVertex AI モデルレジストリにアップロードして、Vertex AI エンドポイントにデプロイします。
D.
訓練済みモデルをVertex AIにインポートする際にXGBoost事前ビルド済みサービングコンテナを使用します。モデルをVertex AI エンドポイントにデプロイします。バックエンドエンジニアと協力して、Golangのバックエンドサービスに前処理および後処理ステップを実装します。
Question 90

あなたは大規模なホテルチェーンに勤務しており、マーケティングチームがターゲットマーケティング戦略のための予測を収集するのを支援するよう依頼されました。マーケティング活動を適宜調整できるよう、今後20日間のユーザー生涯価値(LTV)について予測を行う必要があります。顧客データセットはBigQueryにあり、あなたはAutoML Tablesでのトレーニング用に表形式データを準備しています。このデータには、複数の列にまたがる時間信号が含まれています。AutoMLがあなたのデータに最適なモデルを適合させるようにするには、どうすればよいですか?

A.
時間信号を含むすべての列を手動で配列に結合します。AutoMLにこの配列を適切に解釈させます。トレーニングセット、検証セット、テストセット全体で自動データ分割を選択します。
B.
手動変換を行わずにトレーニングデータを送信します。AutoMLに適切な変換を処理させます。トレーニングセット、検証セット、テストセット全体で自動データ分割を選択します。
C.
手動変換を行わずにトレーニングデータを送信し、適切な列を時間列として指定します。提供された時間信号に基づいてAutoMLにデータを分割させ、より新しいデータを検証セットとテストセット用に予約します。
D.
手動変換を行わずにトレーニングデータを送信します。時間信号を持つ列を使用して手動でデータを分割します。検証セットのデータがトレーニングセットのデータの30日後であり、テストセットのデータが検証セットの30日後であることを確認します。