Professional Cloud Architect
Question 276
この質問については、TerramEarthのケーススタディを参照してください。あなたは、あなたの会社であるTerramEarthのために、信頼性が高くスケーラブルなGCPデータウェアハウスソリューションを実装する必要があります。 TerramEarthのビジネス要件と技術要件を考慮して、何をすべきですか?
A.
既存のデータウェアハウスをBigQueryに置き換える。テーブルパーティショニングを使用する。B.
既存のデータウェアハウスを96 CPUのCompute Engineインスタンスに置き換える。C.
既存のデータウェアハウスをBigQueryに置き換える。フェデレーションデータソースを使用する。D.
既存のデータウェアハウスを96 CPUのCompute Engineインスタンスに置き換える。さらに32 CPUのCompute Engineプリエンプティブルインスタンスを追加する。Question 277
この質問については、TerramEarthのケーススタディを参照してください。すべての受信データをBigQueryに書き込む新しいアーキテクチャが導入されました。データが汚れていることに気づき、コストを管理しながら自動化された日次ベースでデータ品質を確保したいと考えています。 どうすべきですか?
A.
ストリーミングCloud Dataflowジョブを設定し、取り込みプロセスによってデータを受信します。Cloud Dataflowパイプラインでデータをクリーンアップします。B.
BigQueryからデータを読み取ってクリーンアップするCloud Functionを作成します。Compute EngineインスタンスからCloud Functionをトリガーします。C.
BigQueryのデータに対してSQLステートメントを作成し、ビューとして保存します。毎日ビューを実行し、結果を新しいテーブルに保存します。D.
Cloud Dataprepを使用し、BigQueryテーブルをソースとして構成します。データをクリーンアップする日次ジョブをスケジュールします。Question 278
この問題については、TerramEarthのケーススタディを参照してください。技術要件を考慮して、GCPで予期せぬ車両のダウンタイムをどのように削減すべきですか?
A.
データウェアハウスとしてBigQueryを使用します。すべての車両をネットワークに接続し、Cloud Pub/SubとCloud Dataflowを使用してデータをBigQueryにストリーミングします。分析とレポート作成にはGoogleデータポータルを使用します。B.
データウェアハウスとしてBigQueryを使用します。すべての車両をネットワークに接続し、gcloudを使用してgzipファイルをマルチリージョンCloud Storageバケットにアップロードします。分析とレポート作成にはGoogleデータポータルを使用します。C.
データウェアハウスとしてCloud Dataproc Hiveを使用します。gzipファイルをマルチリージョンCloud Storageバケットにアップロードします。gcloudを使用してこのデータをBigQueryにアップロードします。分析とレポート作成にはGoogleデータポータルを使用します。D.
データウェアハウスとしてCloud Dataproc Hiveを使用します。データをパーティション分割されたHiveテーブルに直接ストリーミングします。データの分析にはPigスクリプトを使用します。Question 279
この質問については、TerramEarth のケーススタディを参照してください。あなたは、携帯電話ネットワークに接続された 20 万台の車両のデータを取り込むための新しいアーキテクチャを設計するよう依頼されました。Google が推奨するプラクティスに従いたいと考えています。 技術要件を考慮すると、データの取り込みにはどのコンポーネントを使用すべきですか?
A.
SSL Ingress を備えた Google Kubernetes EngineB.
公開鍵/秘密鍵ペアを使用した Cloud IoT CoreC.
プロジェクト全体の SSH キーを使用した Compute EngineD.
特定の SSH キーを使用した Compute Engine