Professional Cloud Architect

Question 51

あなたは会社のGoogle Cloud環境を担当しています。複数の部署がそれぞれのプロジェクトにアクセスする必要があり、各部署内のメンバーは同じプロジェクトの責務(権限)を持ちます。各部署のプロジェクトが開始および終了する際に、メンテナンスを最小限に抑え、IAM権限の全体像を最大限把握しやすいようにGoogle Cloud環境を構成したいと考えています。Googleの推奨プラクティスに従いたい場合、どうすべきですか?

A.
すべての部署メンバーに、それぞれのプロジェクトに必要なIAM権限を付与する。
B.
部署ごとにGoogleグループを作成し、すべての部署メンバーをそれぞれのグループに追加する。部署ごとにフォルダを作成し、対応するグループに必要なIAM権限をフォルダレベルで付与する。プロジェクトをそれぞれのフォルダ配下に追加する。
C.
部署ごとにフォルダを作成し、部署の各メンバーに対応する必要なIAM権限をフォルダレベルで付与する。各部署のすべてのプロジェクトを、それぞれのフォルダ配下に構成する。
D.
部署ごとにGoogleグループを作成し、すべての部署メンバーをそれぞれのグループに追加する。各グループに、それぞれのプロジェクトに必要なIAM権限を付与する。
Question 52

あなたの会社では、Google Kubernetes Engine (GKE) クラスタ内で Deployment として実行されているアプリケーションがあります。開発、ステージング、本番用に個別のクラスタがあります。チームが、開発環境とステージング環境でデプロイメントをテストせずに、本番クラスタに Docker イメージをデプロイできることが判明しました。チームの自律性は維持しつつ、このような事態を防ぎたいと考えています。最小限の労力で迅速に実装できる Google Cloud ソリューションが必要です。どうすべきでしょうか?

A.
特定の環境での使用が承認されていない場合にコンテナの起動を防ぐために、Kubernetes ライフサイクルフックを設定します。
B.
以前の環境で Docker イメージがテストされていない限り、チームが環境に Docker イメージをデプロイすることを防ぐための企業ポリシーを実装します。
C.
開発、ステージング、本番クラスタに Binary Authorization ポリシーを設定します。継続的インテグレーションパイプラインの一部として証明書 (attestations) を作成します。
D.
特定の環境での使用が承認されていない場合にコンテナの起動を防ぐために、Kubernetes アドミッションコントローラーを作成します。
Question 53

あなたの会社は、10TBのオンプレミスデータベースのエクスポートデータをCloud Storageに移行したいと考えています。この作業にかかる時間、全体的なコスト、およびデータベースへの負荷を最小限に抑えたいと考えています。オンプレミス環境とGoogle Cloud間の帯域幅は1Gbpsです。Googleが推奨するプラクティスに従いたいと考えています。どうすべきでしょうか?

A.
データベースから直接データを読み取り、Cloud Storageに書き込むDataflowジョブを開発する。
B.
Data Transfer Applianceを使用してオフライン移行を実行する。
C.
商用パートナーのETLソリューションを使用して、オンプレミスデータベースからデータを抽出し、Cloud Storageにアップロードする。
D.
データを圧縮し、gsutil -mを使用してマルチスレッドコピーを有効にしてアップロードする。
Question 54

あなたの会社では、高可用性と高パフォーマンスを必要とするエンタープライズアプリケーションをCompute Engine上で実行しています。このアプリケーションは、同一リージョン内の2つのゾーンにある2つのインスタンスにアクティブ/パッシブモードでデプロイされています。アプリケーションは永続ディスクにデータを書き込みます。単一ゾーンの障害が発生した場合、そのデータは即座に別ゾーンの他のインスタンスで利用可能になる必要があります。パフォーマンスを最大化し、ダウンタイムとデータ損失を最小限に抑えたいと考えています。 どうすべきでしょうか?

A.
1. 最初のインスタンスに永続SSDディスクをアタッチします。 2. 1時間ごとにスナップショットを作成します。 3. ゾーン障害が発生した場合、作成されたスナップショットからデータを取得して、2番目のインスタンスに永続SSDディスクを再作成します。
B.
1. Cloud Storageバケットを作成します。 2. gcs-fuseを使用して、最初のインスタンスにバケットをマウントします。 3. ゾーン障害が発生した場合、gcs-fuseを使用して、2番目のインスタンスにCloud Storageバケットをマウントします。
C.
1. 最初のインスタンスにリージョンSSD永続ディスクをアタッチします。 2. ゾーン障害が発生した場合、ディスクを他のインスタンスに強制アタッチします。
D.
1. 最初のインスタンスにローカルSSDをアタッチします。 2. ターゲットが2番目のインスタンスにアタッチされた永続SSDディスクであるrsyncコマンドを1時間ごとに実行します。 3. ゾーン障害が発生した場合、2番目のインスタンスを使用します。
Question 55

あなたはGoogle Cloud上にデータウェアハウスを設計しており、機密データをBigQueryに保存したいと考えています。あなたの会社は、暗号化キーをGoogle Cloudの外部で生成することを要求しています。解決策を実装する必要があります。どうすべきですか?

A.
Cloud Key Management Service (Cloud KMS) で新しいキーを生成します。顧客管理キーオプションを使用してすべてのデータをCloud Storageに保存し、作成したキーを選択します。データを復号して新しいBigQueryデータセットに保存するためのDataflowパイプラインを設定します。
B.
Cloud Key Management Service (Cloud KMS) で新しいキーを生成します。顧客管理キーオプションを使用してBigQueryにデータセットを作成し、作成したキーを選択します。
C.
Cloud KMSにキーをインポートします。顧客管理キーオプションを使用してすべてのデータをCloud Storageに保存し、作成したキーを選択します。データを復号して新しいBigQueryデータセットに保存するためのDataflowパイプラインを設定します。
D.
Cloud KMSにキーをインポートします。顧客指定キーオプションを使用してBigQueryにデータセットを作成し、作成したキーを選択します。