Professional Machine Learning Engineer

Question 131

あなたは、テキストベースの製品レビューから感情スコアを予測するためのモデル訓練パイプラインを作成しています。モデルパラメータの調整方法を制御できるようにしたいと考えており、訓練後にモデルをエンドポイントにデプロイする予定です。パイプラインの実行にはVertex AI Pipelinesを使用します。どのGoogle Cloudパイプラインコンポーネントを使用するかを決定する必要があります。どのコンポーネントを選択すべきですか?

A.
TabularDatasetCreateOp、CustomTrainingJobOp、およびEndpointCreateOp
B.
TextDatasetCreateOp、AutoMLTextTrainingOp、およびEndpointCreateOp
C.
TabularDatasetCreateOp、AutoMLTextTrainingOp、およびModelDeployOp
D.
TextDatasetCreateOp、CustomTrainingJobOp、およびModelDeployOp
Question 132

あなたのチームは、頻繁に新しい機械学習(ML)モデルを作成し、実験を実行しています。チームは、Cloud Source Repositories でホストされている単一のリポジトリにコードをプッシュしています。コードに何らかの変更があるたびにモデルを自動的に再トレーニングする継続的インテグレーション(CI)パイプラインを作成したいと考えています。CIパイプラインを設定するための最初のステップは何でしょうか?

A.
イベントを「プルリクエスト」として設定した Cloud Build トリガーを構成する
B.
イベントを「ブランチへのプッシュ」として設定した Cloud Build トリガーを構成する
C.
コードが変更されるたびにリポジトリをビルドする Cloud Function を構成する
D.
新しいブランチが作成されるたびにリポジトリをビルドする Cloud Function を構成する
Question 133

予測を行う前にメモリを大量に消費するいくつかの前処理タスクを実行するカスタムモデルを構築しました。このモデルをVertex AIエンドポイントにデプロイし、結果が妥当な時間内に受信されることを検証しました。その後、ユーザートラフィックをエンドポイントにルーティングしたところ、複数のリクエストを受信した際にエンドポイントが期待通りにオートスケールしないことが判明しました。どうすべきでしょうか?

A.
より多くのメモリを持つマシンタイプを使用する
B.
マシンあたりのワーカー数を減らす
C.
オートスケーリング設定でCPU使用率のターゲットを上げる
D.
オートスケーリング設定でCPU使用率のターゲットを下げる
Question 134

あなたの会社はeコマースウェブサイトを管理しています。あなたは、ユーザーのカートに現在入っている商品に基づいて、ほぼリアルタイムで追加の商品をユーザーに推奨するMLモデルを開発しました。ワークフローには以下のプロセスが含まれます: 1. ウェブサイトは関連データを含むPub/Subメッセージを送信し、その後Pub/Subから予測結果を含むメッセージを受信します。 2. 予測結果はBigQueryに保存されます。 3. モデルはCloud Storageバケットに保存され、頻繁に更新されます。 あなたは予測レイテンシとモデル更新に必要な手間を最小限に抑えたいと考えています。アーキテクチャをどのように再構成すべきですか?

A.
モデルをメモリにロードして予測を行うCloud Functionsを作成します。Pub/Subにメッセージが送信されたときにこの関数がトリガーされるように設定します。
B.
前処理、予測、後処理を実行するパイプラインをVertex AI Pipelinesで作成します。Pub/Subにメッセージが送信されたときにCloud Functionsによってこのパイプラインがトリガーされるように設定します。
C.
モデルをVertex AIエンドポイントとして公開します。予測のためにエンドポイントを呼び出すカスタムDoFnをDataflowジョブ内に記述します。
D.
モデルをラップし予測を提供するDataflowジョブで、WatchFilePatternと共にRunInference APIを使用します。
Question 135

テキスト分類モデルを訓練しました。次のSignatureDefsがあります。 TensorFlow-servingコンポーネントサーバーを起動し、次のHTTPリクエストを送信して予測を取得しようとしました: headers = {'content-type': 'application/json'} json_response = requests.post('http: //localhost:8501/v1/models/text_model:predict', data=data, headers=headers) 予測リクエストを作成する正しい方法は何ですか?

SignatureDef for the text classification model
A.
data = json.dumps({'signature_name': 'seving_default', 'instances': [['ab', 'bc', 'cd']]})
B.
data = json.dumps({'signature_name': 'serving_default', 'instances': [['a', 'b', 'c', 'd', 'e', 'f']]})
C.
data = json.dumps({'signature_name': 'serving_default', 'instances': [['a', 'b', 'c'], ['d', 'e', 'f']]})
D.
data = json.dumps({'signature_name': 'serving_default', 'instances': [['a', 'b'], ['c', 'd'], ['e', 'f']]})