Professional Machine Learning Engineer

Question 176

あなたは最近、表形式データでXGBoostモデルをトレーニングしました。このモデルをHTTPマイクロサービスとして社内利用に公開する予定です。デプロイ後、受信リクエスト数は少ないと予想されます。最小限の労力とレイテンシでモデルを本番環境に移行したいと考えています。どうすべきでしょうか?

A.
CREATE MODELステートメントでBOOSTED_TREE_REGRESSORを使用してモデルをBigQuery MLにデプロイし、マイクロサービスからBigQuery APIを呼び出す。
B.
Flaskベースのアプリを構築する。アプリをVertex AI上のカスタムコンテナにパッケージ化し、Vertex AI Endpointsにデプロイする。
C.
Flaskベースのアプリを構築する。アプリをDockerイメージにパッケージ化し、AutopilotモードでGoogle Kubernetes Engineにデプロイする。
D.
事前構築済みのXGBoost Vertexコンテナを使用してモデルを作成し、Vertex AI Endpointsにデプロイする。
Question 177

あなたは、科学製品を世界中に出荷する国際的な製造組織に勤務しています。これらの製品の取扱説明書は、15の異なる言語に翻訳する必要があります。組織のリーダーシップチームは、手作業による翻訳コストを削減し、翻訳速度を向上させるために、機械学習の利用を開始したいと考えています。あなたは、精度を最大化し、運用オーバーヘッドを最小限に抑えるスケーラブルなソリューションを実装する必要があります。また、誤訳を評価し修正するプロセスも組み込みたいと考えています。どうすべきでしょうか?

A.
Cloud Functions のトリガーを使用してワークフローを作成します。ドキュメントが入力用の Cloud Storage バケットにアップロードされたときにトリガーされる Cloud Functions を設定します。別の Cloud Functions が Cloud Translation API を使用してドキュメントを翻訳し、翻訳結果を出力用の Cloud Storage バケットに保存するように設定します。人間のレビュー担当者が誤訳を評価します。
B.
ドキュメントを処理し、AutoML Translation トレーニングジョブを起動し、翻訳を評価し、自動スケーリングとモデルモニタリングを備えた Vertex AI エンドポイントにモデルをデプロイする Vertex AI パイプラインを作成します。トレーニングデータと本番データの間に事前に定義された差異が生じた場合、最新のデータでパイプラインを再トリガーします。
C.
AutoML Translation を使用してモデルをトレーニングします。Translation Hub プロジェクトを設定し、トレーニング済みモデルを使用してドキュメントを翻訳します。人間のレビュー担当者が誤訳を評価します。
D.
Vertex AI カスタムトレーニングジョブを使用して、最先端のオープンソース事前学習済みモデルを自社のデータでファインチューニングします。自動スケーリングとモデルモニタリングを備えた Vertex AI エンドポイントにモデルをデプロイします。トレーニングデータと本番データの間に事前に定義された差異が生じた場合、最新のデータで別のトレーニングジョブを実行するトリガーを設定します。
Question 178

あなたは、複数のscikit-learnモデルの連鎖を使用して、自社製品の最適価格を予測するアプリケーションを開発しました。ワークフローロジックは図に示されています。チームのメンバーは、個々のモデルを他のソリューションワークフローでも使用します。各個別モデルとワークフロー全体のバージョン管理を保証しながら、このワークフローをデプロイしたいと考えています。アプリケーションはゼロにスケールダウンできる必要があります。このソリューションの管理に必要なコンピューティングリソースの使用量と手動作業を最小限に抑えたいと考えています。どうすべきですか?

Question
A.
各個別モデルをVertex AI エンドポイントのエンドポイントとして公開します。ワークフローをオーケストレーションするためにカスタムコンテナエンドポイントを作成します。
B.
各モデルの個別ファイルをロードするワークフロー用のカスタムコンテナエンドポイントを作成します。各個別モデルのバージョンをBigQueryで追跡します。
C.
各個別モデルをVertex AI エンドポイントのエンドポイントとして公開します。Cloud Runを使用してワークフローをオーケストレーションします。
D.
各モデルの個別ファイルをCloud Runにロードします。Cloud Runを使用してワークフローをオーケストレーションします。各個別モデルのバージョンをBigQueryで追跡します。
Question 179

あなたは、さまざまなオンプレミスのデータマートにまたがる統合分析環境の構築を担当しています。あなたの会社では、多種多様な分断されたツールや一時的なソリューションを使用していることが原因で、サーバー間でデータを統合する際にデータ品質とセキュリティの課題が発生しています。作業の総コストを削減し、反復作業を減らすことができる、フルマネージドのクラウドネイティブなデータ統合サービスが必要です。チームの一部のメンバーは、ETL(抽出、変換、ロード)プロセスを構築するためのコードレスインターフェースを好んでいます。どのサービスを使用すべきですか?

A.
Dataflow
B.
Dataprep
C.
Apache Flink
D.
Cloud Data Fusion
Question 180

あなたは、重要な機械部品で故障が発生するかどうかを予測するモデルを開発しています。多変量時系列と、機械部品が故障したかどうかを示すラベルで構成されるデータセットがあります。最近、Vertex AI Workbenchノートブックで、いくつかの異なる前処理およびモデリングアプローチの実験を開始しました。各実行からデータとアーティファクトをログに記録し、追跡したいと考えています。どのように実験をセットアップすべきですか?

A.
1. Vertex AI SDKを使用して実験を作成し、Vertex ML Metadataを設定します。 2. `log_time_series_metrics`関数を使用して前処理済みデータを追跡し、`log_metrics`関数を使用して損失値をログに記録します。
B.
1. Vertex AI SDKを使用して実験を作成し、Vertex ML Metadataを設定します。 2. `log_time_series_metrics`関数を使用して前処理済みデータを追跡し、`log_metrics`関数を使用して損失値をログに記録します。
C.
1. Vertex AI TensorBoardインスタンスを作成し、Vertex AI SDKを使用して実験を作成し、TensorBoardインスタンスを関連付けます。 2. `assign_input_artifact`メソッドを使用して前処理済みデータを追跡し、`log_time_series_metrics`関数を使用して損失値をログに記録します。
D.
1. Vertex AI TensorBoardインスタンスを作成し、Vertex AI SDKを使用して実験を作成し、TensorBoardインスタンスを関連付けます。 2. `log_time_series_metrics`関数を使用して前処理済みデータを追跡し、`log_metrics`関数を使用して損失値をログに記録します。