A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection.
The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity.
Which solution meets these requirements?
- A. Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.
- B. Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.
- C. Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.
- D. Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.
한 회사가 여러 대륙의 도시에서 온도, 습도, 대기압에 대한 데이터를 수집합니다. 이 회사가 각 사이트에서 매일 수집하는 데이터의 평균 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
이 회사는 이러한 모든 글로벌 사이트의 데이터를 가능한 한 빨리 단일 Amazon S3 버킷에 집계하고자 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇인가요?
A. 대상 S3 버킷에서 S3 전송 가속을 켭니다. 다중 부분 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 지역 간 복제를 사용하여 대상 S3 버킷에 개체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
C. 각 사이트에서 가장 가까운 리전으로 데이터를 전송하기 위해 AWS 스노우볼 에지 스토리지 최적화 장치 작업을 매일 예약합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 오브젝트를 복사합니다.
D. 각 사이트의 데이터를 가장 가까운 리전에 있는 Amazon EC2 인스턴스로 업로드합니다. Amazon EBS(Amazon Elastic Block Store) 볼륨에 데이터를 저장합니다. 일정한 간격으로 EBS 스냅샷을 생성하여 대상 S3 버킷이 포함된 리전으로 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
[풀이]
- 여러 대륙의 도시에서 데이터를 수집하고, 각 사이트에서 매일 평균 500GB를 수집하며, 고속 인터넷 연결이 있다.
가능한 빨리 단일 S3 버킷에 집계하고, 운영 복잡성을 최소화 해야함. - 가능한 빨리 단일 S3 버킷에 집계하기 위해서 스노우볼은 일단 아님
왜? 스노우볼은 AWS에서 디바이스를 전달받아 해당 디바이스 데이터를 다시 AWS로 전송해 계정에 저장하는 솔루션이기 때문에 가장 오래걸릴듯C는 제외 - D의 경우 EC2 인스턴스로 업로드하는 과정 또는 비용 + EBS 볼륨 프로비저닝 비용 / 리전 간 데이터 전송 비용 이 들기 때문에 비용 효율적이지 않음
D 제외 - B의 경우 A가 없었더라면 가장 정답에 근접할 듯 Cross Region Replication (CRR) 을 이용하게 되면 교차 리전 복제가 가능함.
- A의 경우 이미 엣지 로케이션을 이용해 분산 환경에서 중앙 집중식으로 데이터를 가져오는 솔루션의 Best Practice로 제공되고 있음. 50~500% 의 전송 속도 개선이 가능하다고 함.
- https://aws.amazon.com/ko/s3/faqs/?nc=sn&loc=7 설명은 링크 참조
답은 A이다.
[출처] : https://www.examtopics.com/exams/amazon/aws-certified-solutions-architect-associate-saa-c03/view/
문제 시 댓글 부탁 드리며 삭제 조치 진행 하겠습니다.
'자격증 > AWS SAA' 카테고리의 다른 글
[SAA-C03][문제 풀이] EBS Multi-AZ 문제 (0) | 2023.10.10 |
---|---|
[SAA-C03][문제 풀이] Organization S3 Policy 문제 (0) | 2023.10.10 |
[SAA-C03][문제 풀이] EC2 <-> S3 사설 네트워크 연결 문제 (0) | 2023.10.10 |
[SAA-C03][문제 풀이] 로그 파일 분석 쿼리 문제 (1) | 2023.10.10 |
AWS SAA-C02 합격 후기 (0) | 2022.04.04 |