Professional Cloud Architect

Question 276

この質問については、TerramEarthのケーススタディを参照してください。あなたは、あなたの会社であるTerramEarthのために、信頼性が高くスケーラブルなGCPデータウェアハウスソリューションを実装する必要があります。 TerramEarthのビジネス要件と技術要件を考慮して、何をすべきですか?

A.
既存のデータウェアハウスをBigQueryに置き換える。テーブルパーティショニングを使用する。
B.
既存のデータウェアハウスを96 CPUのCompute Engineインスタンスに置き換える。
C.
既存のデータウェアハウスをBigQueryに置き換える。フェデレーションデータソースを使用する。
D.
既存のデータウェアハウスを96 CPUのCompute Engineインスタンスに置き換える。さらに32 CPUのCompute Engineプリエンプティブルインスタンスを追加する。
Question 277

この質問については、TerramEarthのケーススタディを参照してください。すべての受信データをBigQueryに書き込む新しいアーキテクチャが導入されました。データが汚れていることに気づき、コストを管理しながら自動化された日次ベースでデータ品質を確保したいと考えています。 どうすべきですか?

A.
ストリーミングCloud Dataflowジョブを設定し、取り込みプロセスによってデータを受信します。Cloud Dataflowパイプラインでデータをクリーンアップします。
B.
BigQueryからデータを読み取ってクリーンアップするCloud Functionを作成します。Compute EngineインスタンスからCloud Functionをトリガーします。
C.
BigQueryのデータに対してSQLステートメントを作成し、ビューとして保存します。毎日ビューを実行し、結果を新しいテーブルに保存します。
D.
Cloud Dataprepを使用し、BigQueryテーブルをソースとして構成します。データをクリーンアップする日次ジョブをスケジュールします。
Question 278

この問題については、TerramEarthのケーススタディを参照してください。技術要件を考慮して、GCPで予期せぬ車両のダウンタイムをどのように削減すべきですか?

A.
データウェアハウスとしてBigQueryを使用します。すべての車両をネットワークに接続し、Cloud Pub/SubとCloud Dataflowを使用してデータをBigQueryにストリーミングします。分析とレポート作成にはGoogleデータポータルを使用します。
B.
データウェアハウスとしてBigQueryを使用します。すべての車両をネットワークに接続し、gcloudを使用してgzipファイルをマルチリージョンCloud Storageバケットにアップロードします。分析とレポート作成にはGoogleデータポータルを使用します。
C.
データウェアハウスとしてCloud Dataproc Hiveを使用します。gzipファイルをマルチリージョンCloud Storageバケットにアップロードします。gcloudを使用してこのデータをBigQueryにアップロードします。分析とレポート作成にはGoogleデータポータルを使用します。
D.
データウェアハウスとしてCloud Dataproc Hiveを使用します。データをパーティション分割されたHiveテーブルに直接ストリーミングします。データの分析にはPigスクリプトを使用します。
Question 279

この質問については、TerramEarth のケーススタディを参照してください。あなたは、携帯電話ネットワークに接続された 20 万台の車両のデータを取り込むための新しいアーキテクチャを設計するよう依頼されました。Google が推奨するプラクティスに従いたいと考えています。 技術要件を考慮すると、データの取り込みにはどのコンポーネントを使用すべきですか?

A.
SSL Ingress を備えた Google Kubernetes Engine
B.
公開鍵/秘密鍵ペアを使用した Cloud IoT Core
C.
プロジェクト全体の SSH キーを使用した Compute Engine
D.
特定の SSH キーを使用した Compute Engine
279問中 276-279問目
最初へ前へ5253545556