Professional Machine Learning Engineer

Question 251

あなたのチームは、畳み込みニューラルネットワーク(CNN)ベースのアーキテクチャをゼロから構築しています。オンプレミスのCPUのみのインフラストラクチャで実行した初期実験は有望でしたが、収束が遅いという課題があります。市場投入までの時間を短縮するために、モデルトレーニングを高速化するよう依頼されました。より強力なハードウェアを活用するために、Google Cloud上の仮想マシン(VM)で実験したいと考えています。あなたのコードには手動のデバイス配置は含まれておらず、Estimatorモデルレベルの抽象化でラップされていません。どの環境でモデルをトレーニングすべきですか?

A.
Compute Engine上のVMと1つのTPU。すべての依存関係は手動でインストールします。
B.
Compute Engine上のVMと8つのGPU。すべての依存関係は手動でインストールします。
C.
n1-standard-2マシンと1つのGPUを備えたDeep Learning VM。すべてのライブラリはプリインストール済みです。
D.
より強力なCPUであるe2-highcpu-16マシンを備えたDeep Learning VM。すべてのライブラリはプリインストール済みです。
Question 252

あなたは、全員がAI Platformを使用する50人以上のデータサイエンティストからなる成長中のチームで働いています。ジョブ、モデル、バージョンを整理されたスケーラブルな方法で管理するための戦略を設計しています。どの戦略を選択すべきですか?

A.
AI Platform Notebooksに制限的なIAM権限を設定し、特定のインスタンスへのアクセスを単一のユーザーまたはグループのみに許可する。
B.
各データサイエンティストの作業を異なるプロジェクトに分離し、各データサイエンティストが作成したジョブ、モデル、バージョンがそのユーザーのみにアクセスできるようにする。
C.
ラベルを使用してリソースを記述的なカテゴリに整理する。作成された各リソースにラベルを適用し、ユーザーがリソースを表示または監視する際にラベルで結果をフィルタリングできるようにする。
D.
Cloud LoggingログのBigQueryシンクを設定し、AI Platformリソースの使用状況に関する情報をキャプチャするように適切にフィルタリングする。BigQueryで、ユーザーと使用しているリソースをマッピングするSQLビューを作成する。
Question 253

あなたはトレーニング時間を短縮してセマンティック画像セグメンテーションのためのディープラーニングモデルをトレーニングしています。Deep Learning VM イメージを使用中に、次のエラーが発生しました: リソース 'projects/deeplearning-platforn/zones/europe-west4-c/acceleratorTypes/nvidia-tesla-k80' が見つかりませんでした。どうすればよいですか?

A.
選択したリージョンにGPUクォータがあることを確認する。
B.
必要なGPUが選択したリージョンで利用可能であることを確認する。
C.
選択したリージョンにプリエンプティブルGPUクォータがあることを確認する。
D.
選択したGPUにワークロードに対して十分なGPUメモリがあることを確認する。
Question 254

あなたのチームは、著者が書いた記事に基づいて著者の政治的所属を予測するNLPリサーチプロジェクトに取り組んでいます。大規模な訓練データセットがあり、その構造は次のようになっています。 訓練、テスト、評価のサブセット間で標準的な80%-10%-10%のデータ分布に従いました。80-10-10の割合を維持しながら、訓練例を訓練・テスト・評価サブセットにどのように分配すべきですか?

Dataset structure for NLP project.
A.
テキストをランダムに訓練・テスト・評価サブセットに分配する: 訓練セット: [TextA1, TextB2, ...] テストセット: [TextA2, TextC1, TextD2, ...] 評価セット: [TextB1, TextC2, TextD1, ...]
B.
著者をランダムに訓練・テスト・評価サブセットに分配する: () 訓練セット: [TextA1, TextA2, TextD1, TextD2, ...] テストセット: [TextB1, TextB2, ...] 評価セット: [TextC1, TextC2 ...]
C.
文をランダムに訓練・テスト・評価サブセットに分配する: 訓練セット: [SentenceA11, SentenceA21, SentenceB11, SentenceB21, SentenceC11, SentenceD21 ...] テストセット: [SentenceA12, SentenceA22, SentenceB12, SentenceC22, SentenceC12, SentenceD22 ...] 評価セット: [SentenceA13, SentenceA23, SentenceB13, SentenceC23, SentenceC13, SentenceD31 ...]
D.
テキストの段落(つまり、連続する文のチャンク)を訓練・テスト・評価サブセットに分配する: 訓練セット: [SentenceA11, SentenceA12, SentenceD11, SentenceD12 ...] テストセット: [SentenceA13, SentenceB13, SentenceB21, SentenceD23, SentenceC12, SentenceD13 ...] 評価セット: [SentenceA11, SentenceA22, SentenceB13, SentenceD22, SentenceC23, SentenceD11 ...]
Question 255

あなたのチームは、プラットフォームの1つのサポートリクエストを分類するために、Google CloudでMLソリューションを作成するタスクを任されました。要件を分析した結果、モデルのコード、サービング、デプロイメントを完全に制御できるように、TensorFlowを使用して分類器を構築することにしました。MLプラットフォームにはKubeflowパイプラインを使用します。時間を節約するために、完全に新しいモデルを構築する代わりに、既存のリソースを活用し、マネージドサービスを使用したいと考えています。分類器をどのように構築すべきですか?

A.
Natural Language API を使用してサポートリクエストを分類する。
B.
AutoML Natural Language を使用してサポートリクエスト分類器を構築する。
C.
AI Platform 上の既存のテキスト分類モデルを使用して転移学習を実行する。
D.
AI Platform 上の既存のテキスト分類モデルをそのまま使用してサポートリクエストを分類する。