반응형

AWS certified solutions architect SAA-C03 Dump 덤프 한글 문제입니다. ^^

 

ExamTopics, KoreaDumps 등 시중 영어 문제집보다 훨씬 정리를 잘해놓았습니다.

 

001 Similar Q.:
한 회사는 여러 대륙에 걸쳐 도시의 온도, 습도, 기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 평균 데이터 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 제공됩니다.
회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 가능한 한 빨리 집계하려고 합니다. 솔루션은 운영상의 복잡성을 최소화해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
B 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
C 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
D 각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
 
Sol.: A
Key point: S3 Transfer Acceleration
         

 

 

002 Similar Q.:
회사에는 자사 독점 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하며 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처를 최소한으로 변경하면서 분석을 수행해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?
 
A Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행하세요.
B Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다.
C Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행하세요.
D AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.
 
Sol.: C
Key point: Amazon Athena
         

 

003 Similar Q.:
회사는 AWS Organizations를 사용하여 다양한 부서의 여러 AWS 계정을 관리합니다. 마스터 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
 
A 조직 ID에 대한 참조와 함께 aws:PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가합니다.
B 각 부서에 대한 조직 단위(OU)를 만듭니다. S3 버킷 정책에 aws:PrincipalOrgPaths 전역 조건 키를 추가합니다.
C AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization RemoveAccountFromOrganization 이벤트를 모니터링합니다. 이에 따라 S3 버킷 정책을 업데이트하십시오.
D S3버킷에 액세스해야 하는 각 사용자에게 태그를 지정하세요. S3 버킷 정책에 aws:PrincipalTag 전역 조건 키를 추가합니다.
 
Sol.: A
Key point: AWS Organizations
         

 

004 Similar Q.:
애플리케이션은 VPC Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷에 연결하지 않고 S3 버킷에 액세스해야 합니다.
Amazon S3프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까?
 
A S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다.
B 로그를 Amazon CloudWatch Logs로 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다.
C S3 액세스를 허용하려면 Amazon EC2에서 인스턴스 프로필을 생성하세요.
D S3 엔드포인트에 액세스하기 위한 프라이빗 링크가 포함된 Amazon API Gateway API를 생성합니다.
 
Sol.: A
Key point: VPC Endpoint
         

 

005 Similar Q.:
한 회사는 사용자가 업로드한 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 확장성과 가용성을 높이기 위해 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 둘 다 Application Load Balancer 뒤에 배치했습니다.
이 변경을 완료한 후 사용자들은 웹 사이트를 새로 고칠 때마다 문서의 하위 집합 중 하나를 볼 수 있지만 동시에 모든 문서를 볼 수는 없다고 보고했습니다.
사용자가 모든 문서를 한 번에 볼 수 있도록 솔루션 설계자는 무엇을 제안해야 합니까?
 
A EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다.
B 문서가 있는 서버로 사용자를 안내하도록 Application Load Balancer 구성
C EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. 새 문서를 Amazon EFS에 저장하도록 애플리케이션 수정
D 두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.
 
Sol.: C
Key point: AmazonEFS
         

  

006 Similar Q.:
회사에서는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기는 1MB에서 500GB까지입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정했습니다. 회사는 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A S3 버킷을 생성합니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
B AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
C 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
D 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
 
Sol.: B
Key point: AWS Snowball Edge
         

 

007 Similar Q.:
회사에 수신 메시지를 수집하는 애플리케이션이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로 서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 매우 다양하며 때로는 초당 100,000개로 갑자기 증가하는 경우도 있습니다. 회사는 솔루션을 분리하고 확장성을 높이고 싶어합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
 
A Amazon Kinesis Data Analytics에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다.
B Auto Scaling 그룹의 Amazon EC2 인스턴스에 수집 애플리케이션을 배포하여 CPU 지표를 기반으로 EC2 인스턴스 수를 확장합니다.
C 단일 샤드를 사용하여 Amazon Kinesis Data Streams에 메시지를 씁니다. AWS Lambda 함수를 사용하여 메시지를 사전 처리하고 Amazon DynamoDB에 저장합니다. 메시지를 처리하기 위해 DynamoDB에서 읽도록 소비자 애플리케이션을 구성합니다.
D 여러 Amazon Simple Queue Service(Amazon SQS) 구독을 사용하여 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. 대기열의 메시지를 처리하도록 소비자 애플리케이션을 구성합니다.
 
Sol.: D
Key point: Amazon SQS
         

 

008 Similar Q.:
한 회사가 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?
 
A Amazon Simple Queue Service(Amazon SQS) 대기열을 작업 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
B Amazon Simple Queue Service(Amazon SQS) 대기열을 작업 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
C Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. AWS CloudTrail을 작업 대상으로 구성합니다. 기본 서버의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.
D Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. Amazon EventBridge(Amazon CloudWatch Events)를 작업 대상으로 구성합니다. 컴퓨팅 노드의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.
 
Sol.: B
Key point: Amazon SQS
009 Similar Q.:
한 회사가 데이터 센터에서 SMB 파일 서버를 운영하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스되는 대용량 파일을 저장합니다. 7일 후에는 파일에 거의 액세스되지 않습니다.
전체 데이터 크기가 점점 늘어나 회사의 전체 저장 용량에 가까워지고 있습니다. 솔루션 설계자는 가장 최근에 액세스한 파일에 대한 짧은 대기 시간의 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 솔루션 설계자는 향후 스토리지 문제를 방지하기 위해 파일 수명주기 관리도 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A AWS DataSync를 사용하여 SMB 파일 서버에서 AWS 7일보다 오래된 데이터를 복사합니다.
B 회사의 스토리지 공간을 확장하려면 Amazon S3 파일 게이트웨이를 생성하세요. 7일 후에 데이터를 S3 Glacier Deep Archive로 전환하는 S3 수명 주기 정책을 생성합니다.
C 회사의 스토리지 공간을 확장하려면 Windows 파일 서버용 Amazon FSx 파일 시스템을 생성합니다.
D Amazon S3에 액세스하려면 각 사용자의 컴퓨터에 유틸리티를 설치하십시오. 7일 후에 데이터를 S3 Glacier 유연한 검색으로 전환하는 S3 수명 주기 정책을 생성합니다.
 
Sol.: B
Key point: S3 Glacier Deep Archive 복구시간은 12시간 이상, S3 Glacier 복원 시간은 3~5
         

 

010 Similar Q.:
한 회사가 AWS에서 전자상거래 웹 애플리케이션을 구축하고 있습니다. 애플리케이션은 새로운 주문에 대한 정보를 Amazon API Gateway REST API로 보내 처리합니다. 회사는 주문이 접수된 순서대로 처리되기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A 애플리케이션이 주문을 수신하면 API Gateway 통합을 사용하여 Amazon Simple 알림 서비스(Amazon SNS) 주제에 메시지를 게시합니다. 처리를 수행하려면 주제에 대한 AWS Lambda 함수를 구독하세요.
B 애플리케이션이 주문을 받으면 API Gateway 통합을 사용하여 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
C 애플리케이션이 주문을 처리하는 동안 API 게이트웨이 권한 부여자를 사용하여 모든 요청을 차단합니다.
D 애플리케이션이 주문을 받으면 API Gateway 통합을 사용하여 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.
 
Sol.: B
Key point: Amazon SQS FIFO
         

 

011 Similar Q.:
회사에는 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 파일에 로컬로 저장된 사용자 이름과 암호를 사용하여 데이터베이스에 연결합니다. 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다.
이 목표를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?
 
A AWS Secrets Manager를 사용하세요. 자동 회전을 켭니다.
B AWS 시스템 관리자 매개변수 저장소를 사용합니다. 자동 회전을 켭니다.
C AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션이 S3 버킷을 가리키도록 합니다.
D EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션이 새 EBS 볼륨을 가리키도록 합니다.
 
Sol.: A
Key point: AWS Secrets Manager
         

 

012 Similar Q.:
한 글로벌 기업이 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터와 동적 데이터에 대한 성능을 향상하고 대기 시간을 줄이고 싶어합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
 
A S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
B ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
C S3 버킷을 오리진으로 갖는 Amazon CloudFront 배포를 생성합니다. ALB CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
D ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 동적 콘텐츠의 CloudFront DNS 이름에 하나의 도메인 이름을 지정합니다. 다른 도메인 이름이 정적 콘텐츠의 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
 
Sol.: A
Key point: Amazon CloudFront, Route 53
         

 

013 Similar Q.:
회사에서는 AWS 인프라에 대해 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 리전에 걸쳐 MySQL Amazon RDS 데이터베이스에 대한 자격 증명을 교체해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
 
A 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 비밀을 교체하도록 Secrets Manager를 구성합니다.
B secure string 파라미터를 생성하여 AWS Systems Manager에 자격 증명을 비밀로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 비밀을 교체하도록 Systems Manager를 구성합니다.
C 서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 자격 증명을 교체하는 AWS Lambda 함수를 호출합니다.
D AWS Key Management Service(AWS KMS) 다중 리전 고객 관리형 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 전역 테이블에 비밀을 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 암호를 검색합니다. RDS API를 사용하여 비밀을 교체합니다.
솔루션 공개 다음 질문
 
Sol.: A
Key point: AWS Secrets Manager
         

 

 

014 Similar Q.:
한 회사가 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 지표를 기준으로 확장됩니다. 전자상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 거래 데이터를 저장합니다.
애플리케이션 로드가 증가하면 데이터베이스 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 작업 부하의 수요를 충족하기 위해 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
B 단일 AZ 배포와 함께 Amazon RDS를 사용하십시오. 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
C 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.
D EC2 스팟 인스턴스와 함께 MemcachedAmazon ElastiCache를 사용하십시오.
 
Sol.: C
Key point: Amazon Aurora
         

 

015 Similar Q.:
한 회사는 최근 AWS로 마이그레이션했으며 프로덕션 VPC에 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 온프레미스 데이터 센터에 검사 서버를 갖고 있었습니다. 점검서버는 트래픽 흐름 점검, 트래픽 필터링 등의 특정 작업을 수행했다. 회사는 AWS 클라우드에서도 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용합니다.
B 트래픽 검사 및 필터링을 위해 트래픽 미러링을 사용하여 프로덕션 VPC의 트래픽을 미러링합니다.
C AWS 네트워크 방화벽을 사용하여 프로덕션 VP에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
D AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
 
Sol.: C
Key point: AWS Network Firewall
         

 

016 Similar Q.:
한 회사가 AWS에서 데이터 레이크를 호스팅하고 있습니다. 데이터 레이크는 Amazon S3 PostgreSQL Amazon RDS의 데이터로 구성됩니다. 회사에는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리팀만이 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 회사의 나머지 부분은 제한된 액세스 권한만 가져야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
B Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
C Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
D Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
 
Sol.: B
Key point: Amazon QuickSight
         

 

017 Similar Q.:
회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 애플리케이션은 두 개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 아키텍트는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다.
이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?
 
A S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
B S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. EC2 인스턴스에 정책을 연결합니다.
C S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
D S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
 
Sol.: A
Key point: IAM 역할
         

 

018 Similar Q.:
애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로서비스는 Amazon S3 버킷에 이미지를 저장하고, AWS Lambda 함수를 사용하여 이미지를 처리 ​​및 압축한 다음, 다른 S3 버킷에 압축된 형식으로 이미지를 저장해야 합니다. 솔루션 아키텍트는 내구성이 뛰어난 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)
 
A Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
B Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
C S3 버킷의 새 업로드를 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 해당 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
D S3 버킷을 모니터링하도록 Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample 알림 서비스(Amazon SNS) 주제에 알림을 보냅니다.
E Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
 
Sol.: A, B
Key point: Amazon SQS, AWS Lamda 함수
         

 

 

019 Similar Q.:
회사에는 AWS에 배포된 3티어 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.
솔루션 설계자는 웹 애플리케이션을 어플라이언스와 통합하여 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
B 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
C 전송 게이트웨이를 통해 수신 패킷을 라우팅하도록 검사 VP 구성 라우팅 테이블에 전송 게이트웨이를 배포합니다.
D 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.
 
Sol.: D
Key point: 검사 VPC
         

 

020 Similar Q.:
한 회사는 동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하려고 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주어서는 안 됩니다. 이 데이터에 액세스하는 소프트웨어에는 지속적으로 높은 I/O 성능이 필요합니다.
솔루션 설계자는 프로덕션 데이터를 테스트 환경으로 복제하는 데 필요한 시간을 최소화해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 테스트 환경에서 스냅샷을 EC2 인스턴스 스토어 볼륨으로 복원합니다.
B EBS 다중 연결 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 테스트 환경의 EC2 인스턴스에 프로덕션 EBS 볼륨을 연결합니다.
C 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. EBS 볼륨을 생성하고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
D 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 활성화합니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
 
Sol.: D
Key point: Amazon EBS 스냅샷
         

 

021 Similar Q.:
한 전자 상거래 회사가 AWS에서 하루에 한 번 거래하는 웹 사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 하나의 제품이 판매됩니다. 회사는 피크 시간 동안 밀리초의 대기 시간으로 매시간 수백만 건의 요청을 처리할 수 있기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
 
A Amazon S3를 사용하여 다양한 S3 버킷에서 전체 웹 사이트를 호스팅합니다. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포 원본으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
B 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. 웹 사이트 트래픽을 분산하려면 ALB(Application Load Balancer)를 추가하세요. 백엔드 API를 위한 또 다른 ALB를 추가합니다. MySQL Amazon RDS에 데이터를 저장합니다.
C 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리할 Pod 수를 늘리거나 줄입니다. MySQL Amazon RDS에 데이터를 저장합니다.
D Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에는 Amazon API Gateway AWS Lambda 함수를 사용하십시오. Amazon DynamoDB에 데이터를 저장합니다.
 
Sol.: D
Key point: Amazon CloudFront, Amazon API Gateway, AWS Lambda 함수->밀리초
         

  

022 Similar Q.:
솔루션 설계자는 Amazon S3를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하고 있습니다. 미디어 파일은 가용 영역이 손실되더라도 복원력이 있어야 합니다. 일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스되지 않습니다. 솔루션 설계자는 미디어 파일 저장 및 검색 비용을 최소화해야 합니다.
이러한 요구 사항을 충족하는 스토리지 옵션은 무엇입니까?
 
A S3 Standard
B S3 Intelligent-Tiering
C S3 Standard-Infrequent Access (S3 Standard-IA)
D S3 One Zone-Infrequent Access (S3 One Zone-IA)
 
Sol.: B
Key point: S3 Intelligent-Tiering
         

  

023 Similar Q.:
한 회사에서 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 해당 파일은 1개월간 자주 접속됩니다. , 1개월이 지나면 해당 파일에 접근할 수 없습니다. 회사는 해당 파일을 무기한 보관해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?
 
A 객체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering을 구성합니다.
B 1개월 후에 S3 Standard에서 S3 Glacier Deep Archive로 객체를 전환하는 S3 수명 주기 구성을 생성합니다.
C 1개월 후에 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 객체를 전환하는 S3 수명 주기 구성을 생성합니다.
D 1개월 후 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하려면 S3 수명 주기 구성을 생성합니다.
 
Sol.: B
Key point: S3 Glacier Deep Archive
         

 

024 Similar Q.:
한 회사가 가장 최근 청구서에서 Amazon EC2 비용이 증가한 것을 확인했습니다. 청구 팀은 몇 개의 EC2 인스턴스에 대해 원치 않는 인스턴스 유형의 수직적 확장을 발견했습니다. 솔루션 아키텍트는 지난 2개월간 EC2 비용을 비교하는 그래프를 작성하고 심층 분석을 수행하여 수직 확장의 근본 원인을 파악해야 합니다.
솔루션 설계자는 운영 오버헤드를 최소화하면서 어떻게 정보를 생성해야 합니까?
 
A AWS 예산을 사용하여 예산 보고서를 생성하고 인스턴스 유형에 따라 EC2 비용을 비교합니다.
B Cost Explorer의 세분화된 필터링 기능을 사용하여 인스턴스 유형을 기반으로 EC2 비용에 대한 심층 분석을 수행합니다.
C AWS Billing and Cost Management 대시보드의 그래프를 사용하여 지난 2개월 동안 인스턴스 유형을 기준으로 EC2 비용을 비교하세요.
D AWS 비용 및 사용 보고서를 사용하여 보고서를 생성하고 Amazon S3 버킷으로 보냅니다. Amazon S3와 함께 Amazon QuickSight를 소스로 사용하여 인스턴스 유형을 기반으로 대화형 그래프를 생성합니다.
 
Sol.: C
Key point: AWS Billing and Cost Management
         

 

025 Similar Q.:
회사에서 애플리케이션을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 해당 정보를 Amazon Aurora PostgreSQL 데이터베이스에 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대량의 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 향상하고 구성 노력을 최소화하기 위해 새로운 디자인을 권장해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 Lambda 함수 코드를 리팩토링합니다. 기본 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
B 플랫폼을 Aurora에서 Amazon DynamoD로 변경합니다. DynamoDB Accelerator(DAX) 클러스터를 프로비저닝합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
C 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
D 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.
 
Sol.: D
Key point: Amazon SQS, Lamda 함수
         

 

026 Similar Q.:
회사는 Amazon S3 버킷에 무단 구성 변경이 없는지 확인하기 위해 AWS 클라우드 배포를 검토해야 합니다.
이 목표를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?
 
A 적절한 규칙을 사용하여 AWS Config를 활성화합니다.
B 적절한 점검을 통해 AWS Trusted Advisor를 활성화하십시오.
C 적절한 평가 템플릿을 사용하여 Amazon Inspector를 활성화합니다.
D Amazon S3 서버 액세스 로깅을 활성화합니다. Amazon EventBridge(Amazon Cloud Watch 이벤트)를 구성합니다.
 
Sol.: A
Key point: AWS Config
         

  

027 Similar Q.:
한 회사가 새로운 애플리케이션을 출시하고 있으며 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 정기적으로 액세스해야 합니다. 제품 관리자에게는 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료하세요. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공합니다.
B 제품 관리자를 위해 특별히 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하세요.
C 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청하세요.
D 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유하세요. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명을 사용하여 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.
 
Sol.: A
Key point: Amazon CloudWatch
         

 

028 Similar Q.:
한 회사가 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 서로 다른 계정에 배포됩니다. 회사는 AWS Organizations를 사용하여 중앙에서 계정을 관리합니다. 회사의 보안 팀에는 회사의 모든 계정에 대한 SSO(Single Sign-On) 솔루션이 필요합니다. 회사는 온프레미스 자체 관리형 Microsoft Active Directory에서 사용자 및 그룹을 계속 관리해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory AWS Directory Service를 사용하여 단방향 포리스트 트러스트 또는 단방향 도메인 트러스트를 생성하여 회사의 자체 관리형 Microsoft Active Directory AWS SSO와 연결합니다.
B AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory AWS SSO와 연결하기 위한 양방향 포리스트 신뢰를 생성합니다.
C AWS 디렉터리 서비스를 사용하세요. 회사의 자체 관리형 Microsoft Active Directory와 양방향 신뢰 관계를 구축합니다.
D 온프레미스에 ID 공급자(IdP)를 배포합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다.
 
Sol.: B
Key point: AWS SSO, AWS Directory Service
         

 

029 Similar Q.:
한 회사에서 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 이 회사는 여러 AWS 지역에 배포되어 있습니다.
회사는 사용자를 지연 시간이 가장 짧은 지역으로 라우팅해야 합니다. 회사에는 지역 간 자동화된 장애 조치도 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
 
A Network Load Balancer(NLB) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB AWS Global Accelerator 엔드포인트로 사용합니다.
B Application Load Balancer(ALB) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB AWS Global Accelerator 엔드포인트로 사용합니다.
C Network Load Balancer(NLB) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
 
Sol.: A
Key point: Network Load Balancer, AWS Global Accelerator
         

  

030 Similar Q.:
개발 팀은 성능 개선 도우미가 활성화된 범용 Amazon RDS for MySQL DB 인스턴스에 대해 매월 리소스 집약적인 테스트를 실행합니다. 테스트는 한 달에 한 번 48시간 동안 진행되며 데이터베이스를 사용하는 유일한 프로세스입니다. 팀은 DB 인스턴스의 컴퓨팅 및 메모리 속성을 줄이지 않고 테스트 실행 비용을 줄이고 싶어합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
 
A 테스트가 완료되면 DB 인스턴스를 중지합니다. 필요한 경우 DB 인스턴스를 다시 시작합니다.
B DB 인스턴스와 함께 Auto Scaling 정책을 사용하면 테스트가 완료되면 자동으로 크기가 조정됩니다.
C 테스트가 완료되면 스냅샷을 생성합니다. DB 인스턴스를 종료하고 필요한 경우 스냅샷을 복원합니다.
D 테스트가 완료되면 DB 인스턴스를 저용량 인스턴스로 수정합니다. 필요한 경우 DB 인스턴스를 다시 수정하십시오.
 
Sol.: C
Key point: Amazon RDS
         

 

 

더 많은 AWS SAA-C03문제는 아래링크를 참조하세요~

 

https://tsop.tistory.com/86

반응형
반응형

AWS 서비스 중요도 순 나열

 

* Amazon EC2 (Elastic Compute Cloud)

안전하고 크기 조정이 가능한 컴퓨팅 파워를 클라우드에서 제공하는 웹서비스.

서버를 빌리는 서비스

 

* AWS IAM (Identity and Access Management)

AWS 서비스와 리소스에 대한 액세스를 안전하게 관리한다.

 

* Amazon VPC (Virtual Private Cloud)

사설망 구축 가능

부여된 IP대역을 분할하여 사용 가능

보안 설정(IP Block)

 

EC2, RDS, Lamda 등의 AWS 컴퓨팅 서비스 실행되는 공간

 

* Amazon S3 (Simple Storage Service)

확장성과 내구성을 제공하는 객체 스토리지 서비스

파일을 보관만 하고 용량이 무제한임.

하나의 객체는 0~5TB 용량

 

* Amzon RDS (Relational Database Service)

관계형 데이터베이스를 서비스로 제공하는 서비스

암호화 지원

자동 백업 지원

 

 

 

 

반응형
반응형

정보처리기사 2024 실기 비밀요약 노트가 출시되었습니다.

 

2024년 실기 최신 기출 반영하였습니다.

 

"앞으로는 기존 시중 수험서로만은 안됩니다!"

- 기출위주 문제풀이보다는 스스로 개념을 정리하여 체화시키는 것이 중요합니다.(기 출제된 문제는 안나오는 경향을 보입니다.)

- 이 요약집은 용어와 설명을 따로 두어, 효율적으로 학습할 수 있습니다.

 

비밀 요약노트 활용 방법

- 수험자가 개념을 아는지 확실히 체크할 수 있도록 용어는 바로 적지 않고 아래 적어 두었습니다.

- 답을 보지 않고 용어가 바로 떠오를 수 있을 정도로 반복 공부하시고, 다 안다 싶은 개념만 공란 에 적어 놓으시면 됩니다.

 

정처기 실기 출제 경향

- 2023 1

원래는 한번 출제된 문제는 나오지 않았지만 분기 커버리지, 파이썬 set, ajax 같이 기출제된 문제가 출제됨.

합격률을 낮추기 위한 지엽적인 고난이도 문제(킬러문제) L2TP 한문제만 출제되었기에 난이도가 상당히 평이한 수준.

 

- 2023 2

다소 쉬웠던 1회와 다르게 헷갈리는 알고리즘 문제와 킬러문제가 다수 출제되어 합격률이 10%중후반을 기록하였음.

수험생들은 단답형 코딩문제와 더불어 알고리즘도 공부하여야 하는 까다로움에 직면함.

조건 커버리지, 디자인패턴 용어문제도 지문이 상당히 헷갈리게 출제되어, 키워드 위주로 간단히 외운 수험생은 맞추기가 힘들었음.

템퍼프루핑, hdlc, 해밍  킬러문제도 3문항이나 출제되어 열심히 공부한 수험생도10~15 정도를 까먹고 들어가야 했던 상당히 까다로운 회차였습니다.

 

- 2023년 3회

Union같은 헷갈리는 문제가 나왔지만, 기출문제 변형문제 많이 출제되었고, 리눅스 명령어 chmod같은 평이한 문제가 출제됨. 하지만 완전수 계산이라는 까다로운 코딩문제와 OAuth라는 생소한 단어가 출제.

ATM도 생소한 단어는 아니지만 심도있게 공부를 안했으면 못맞추었음.

 

-2024년 1회

기출변형 코딩문제가 많이 출제되었지만, 11번 이자문제가 return값이 없어 논란이 됨.

9918 and 2795.10이 답이지만, 공단에서 전원 정답처리해줄지는 미지수.

디자인패턴 Abstract Factory가 나왔지만, 문제가 상당히 애매하였음.

세타조인, 동등조인, 자연조인 문제가 킬러 문제로 나왔고, 정답률 10%미만.

이 외에는 비밀 요약 노트만 확실히 공부했으면 무난히 Pass했을 난이도 였습니다.

 

 

 

 

 

 

 

"합격하시려면 절대 기존 기출 풀이로만은 안됩니다!"

본 전자책은 정보처리기사 실기의 최신 경향을 반영한 요약노트입니다.
위처럼 용어와 설명을 따로 두어, 효율적으로 학습할 수 있습니다.

도서명 : 1주 만에 끝내는 정보처리기사 실기 2024 비밀 요약 노트 - 정성환 지음

페이지 수 : 140p

등록일 : 2024-06-01

 

* 2024년 이벤트

이북에서는 정가 18,000원에 판매되고 있으며, 크몽에서 15,000원에 판매중입니다. 

 

크몽 판매 링크 ( 18,000원 -> 15,000원)

https://kmong.com/gig/457547

 

정보처리기사 실기 2024 비밀 요약 노트 - 크몽

나비웹디자인 전문가의 자료·템플릿 서비스를 만나보세요. <p><br></p><p><strong&g...

kmong.com

 

계좌이체 구매 링크

https://open.kakao.com/o/sJxCUJbf

 

정보처리기사 실기 비밀 요약 노트 판매

#정보처리기사#실기#요약집#2023#기출문제

open.kakao.com

 

 

 

** 질문 및 정보 공유 오픈채팅방:

카카오톡 오픈채팅에서 ‘정선생 정보처리기사’ 검색

URL: https://open.kakao.com/o/gIjsEOxf

 

반응형

+ Recent posts