Professional Cloud Architect

Question 271

データ取得を高速化するため、より多くの車両がセルラー接続にアップグレードされ、ETLプロセスにデータを送信できるようになります。現在のFTPプロセスはエラーが発生しやすく、接続が失敗するとファイルの先頭からデータ転送を再開します。これは頻繁に発生します。ソリューションの信頼性を向上させ、セルラー接続でのデータ転送時間を最小限に抑えたいと考えています。 どうすべきですか?

A.
FTPサーバーのGoogle Container Engineクラスターを1つ使用します。Multi-Regionalバケットにデータを保存します。バケット内のデータを使用してETLプロセスを実行します。
B.
異なるリージョンにあるFTPサーバーを実行する複数のGoogle Container Engineクラスターを使用します。US、EU、AsiaのMulti-Regionalバケットにデータを保存します。バケット内のデータを使用してETLプロセスを実行します。
C.
HTTP(S)経由でGoogle APIを使用して、US、EU、AsiaのGoogle Cloud Multi-Regional Storageバケットにファイルを直接転送します。バケット内のデータを使用してETLプロセスを実行します。
D.
HTTP(S)経由でGoogle APIを使用して、US、EU、Asiaの各Google Cloud Regional Storageバケットにファイルを直接転送します。各Regionalバケットからデータを取得するためにETLプロセスを実行します。
Question 272

TerramEarth社の2000万台の車両は世界中に分散しています。車両の位置に基づいて、そのテレメトリデータはGoogle Cloud Storage (GCS) のリージョナルバケット(米国、ヨーロッパ、またはアジア)に保存されます。CTOは、車両が10万マイル走行後に故障する原因を特定するために、生のテレメトリデータに関するレポートを実行するように依頼しました。あなたはこのジョブをすべてのデータに対して実行したいと考えています。 このジョブを実行するための最も費用対効果の高い方法は何ですか?

A.
すべてのデータを1つのゾーンに移動し、Cloud Dataprocクラスタを起動してジョブを実行する
B.
すべてのデータを1つのリージョンに移動し、Google Cloud Dataprocクラスタを起動してジョブを実行する
C.
各リージョンでクラスタを起動して生データを前処理および圧縮し、次にデータをマルチリージョンバケットに移動して、Dataprocクラスタを使用してジョブを完了する
D.
各リージョンでクラスタを起動して生データを前処理および圧縮し、次にデータをリージョンバケットに移動して、Cloud Dataprocクラスタを使用してジョブを完了する
Question 273

TerramEarth社は、接続されたすべてのトラックにサーバーとセンサーを搭載し、テレメトリデータを収集しています。来年、彼らはそのデータを使用して機械学習モデルをトレーニングしたいと考えています。コストを削減しながら、このデータをクラウドに保存したいと考えています。 どうすべきでしょうか?

A.
車両のコンピュータでデータを1時間ごとのスナップショットに圧縮し、Google Cloud Storage (GCS) Nearlineバケットに保存する
B.
テレメトリデータをリアルタイムでストリーミングDataflowジョブにプッシュし、データを圧縮してGoogle BigQueryに保存する
C.
テレメトリデータをリアルタイムでストリーミングDataflowジョブにプッシュし、データを圧縮してCloud Bigtableに保存する
D.
車両のコンピュータでデータを1時間ごとのスナップショットに圧縮し、GCS Coldlineバケットに保存する
Question 274

この質問については、TerramEarthのケーススタディを参照してください。ヨーロッパのGDPR規制に準拠するため、TerramEarthは、個人データを含むヨーロッパの顧客から生成されたデータを36ヶ月後に削除する必要があります。新しいアーキテクチャでは、このデータはCloud StorageとBigQueryの両方に保存されます。どのように対応すべきですか?

A.
ヨーロッパのデータ用にBigQueryテーブルを作成し、テーブルの保持期間を36ヶ月に設定します。Cloud Storageについては、gsutilを使用して、36ヶ月の経過期間(Age)条件を持つDELETEアクションでライフサイクル管理を有効にします。
B.
ヨーロッパのデータ用にBigQueryテーブルを作成し、テーブルの保持期間を36ヶ月に設定します。Cloud Storageについては、gsutilを使用して、36ヶ月の経過期間(Age)条件を持つ場合にストレージクラスをNONEに設定する(SetStorageClass to NONE)アクションを作成します。
C.
ヨーロッパのデータ用にBigQueryの時間パーティション分割テーブルを作成し、パーティションの有効期限を36ヶ月に設定します。Cloud Storageについては、gsutilを使用して、36ヶ月の経過期間(Age)条件を持つDELETEアクションでライフサイクル管理を有効にします。
D.
ヨーロッパのデータ用にBigQueryの時間パーティション分割テーブルを作成し、パーティションの有効期限を36ヶ月に設定します。Cloud Storageについては、gsutilを使用して、36ヶ月の経過期間(Age)条件を持つ場合にストレージクラスをNONEに設定する(SetStorageClass to NONE)アクションを作成します。
Question 275

この問題については、TerramEarthのケーススタディを参照してください。TerramEarthはデータファイルをCloud Storageに保存することにしました。1年分のデータを保存し、ファイルストレージのコストを最小限に抑えるために、Cloud Storageのライフサイクルルールを設定する必要があります。 どの(2つのルールから成る)アクションを実行すべきですか?

A.
経過日数: 30日、ストレージクラス: Standard、アクション: Coldlineに設定」のCloud Storageライフサイクルルールを作成し、「経過日数: 365日、ストレージクラス: Coldline、アクション: 削除」の2番目のGCSライフサイクルルールを作成します。
B.
経過日数: 30日、ストレージクラス: Coldline、アクション: Nearlineに設定」のCloud Storageライフサイクルルールを作成し、「経過日数: 91日、ストレージクラス: Coldline、アクション: Nearlineに設定」の2番目のGCSライフサイクルルールを作成します。
C.
経過日数: 90日、ストレージクラス: Standard、アクション: Nearlineに設定」のCloud Storageライフサイクルルールを作成し、「経過日数: 91日、ストレージクラス: Nearline、アクション: Coldlineに設定」の2番目のGCSライフサイクルルールを作成します。
D.
経過日数: 30日、ストレージクラス: Standard、アクション: Coldlineに設定」のCloud Storageライフサイクルルールを作成し、「経過日数: 365日、ストレージクラス: Nearline、アクション: 削除」の2番目のGCSライフサイクルルールを作成します。