728x90
반응형




Database를 선택하는 방법

  1. 읽기량/쓰기량 고려
  2. 데이터 처리량 고려
  3. 데이터 저장량
  4. 데이터 저장 기간
  5. 평균 객체 크기
  6. 객체에 접근하는 방법
  7. 확장이 가능한지?
  8. 데이터 공급원은 어디인지?
  9. 데이터 내구성이 있는지?
  10. 지연시간에 관한 요구사항이 있는지?
  11. 동시 사용자에 관한 요구사항이 있는지?
  12. 데이터 모델이 뭔지?
  13. 쿼리 방법이 뭔지?
  14. 데이터 join이 많은지?
  15. 정규화? 반정규화?
  16. 유연성이 있는지?
  17. reporting이 필요한지?
  18. 관계형? NoSQL?
  19. 라이선스 비용이 있는지?


  • Database Types
  1. RDBMS : RDS, Aurora
  2. NoSQL : DynamoDB(JSON), ElastiCache(key-value), Neptune(Graphs), MongoDB(DocumentDB), Apache Cassandra(Keyspaces)
  3. Object Store : S3, Glacier
  4. Data Warehouse : Redshift(OLAP), Athena. EMR
  5. Search : OpenSearch(JSON)
  6. Graphs : Amazon Neptune
  7. Ledger : Amazon Quantum Ledger Database
  8. Time series : Amazon Timestream


RDS

  1. PostgreSQL, MySQL, Oracle, SQL Server, MariaDB 지원
  2. RDS 인스턴스 크기 및 EBS Volume Type/Size를 사전 지정해야 함
  3. 스토리지에 대한 Auto-scaling 기능이 있음
  4. 읽기 전용 복제본 지원
  5. 고가용성 목적으로 Standby DB를 다중 AZ에 배치할 수 있음 (해당 DB엔 쿼리 실행 불가)
  6. IAM을 통해 사용자 보안조치 가능 (사용자이름/비밀번호, 일부 사용자에게 IAM 인증 부여)
  7. Security Groups을 통해 네트워크 보안
  8. KMS를 통해 데이터 저장 보안
  9. SSL을 통해 전송 데이터 보안
  10. 최대 35일의 자동 백업 옵션 -> 해당 기간 내 새로운 DB로 복구 가능
  11. 장기 보존 백업이 필요한 경우 DB Snapshot 이용 가능
  12. 패치 작업 등을 위해 downtime이 있을 수 있음
  13. RDS Proxy를 추가하여 RDS에 IAM 인증 추가
  14. Secrets Manager와 통합하여 DB 자격증명 관리
  15. RDS 인스턴스에 접근을 위한 사용자 지정옵션 있음 (Oracle / SQL Server)
  16. 관계형 DB 및 OLTP를 저장하는데 활용


Aurora

  1. PostgreSQL, MySQL 지원
  2. 스토리지와 컴퓨팅이 구분됨
  3. 기본 설정으로 3개 AZ에 6개의 인스턴스로 나누어 데이터를 저장함 -> 고가용성
  4. 자동 자가복구 과정이 있음
  5. 스토리지에 대한 Auto-scaling 기능이 있음 (읽기 전용 복제본도 가능)
  6. DB Cluster가 구축되어 있기 때문에 어느 인스턴스에 접근하여 읽고 쓸지를 결정하기 위해 별도 endpoint가 필요 (writer endpoint, reader endpoint)
  7. RDS와 동일한 Security/monitoring/maintenance 기능이 있음 -> 같은 엔진 활용
  8. Aurora를 위한 백업 및 복구 기능이 있음
  9. Aurora Serverless -> 예측할 수 없는 간헐적인 workload가 있을 때 용량을 별도로 계획하지 않아도 되기 때문에 유용함
  10. Global DB를 위해 Aurora Global이 사용됨 -> 16개의 read전용 인스턴스가 각 region에 배포됨 -> 1초 미만의 실시간 스토리지 복제 -> 특정 region에 문제가 생겼을 때, 다른 region의 DB를 주요 region으로 승격시킬 수 있음
  11. 머신러닝을 위한 Aurora Machine Learning 모듈이 있음
  12. 테스트 DB 및 스테이징 DB를 위해 Aurora cloning 기능이 있음, snapshot을 복구하는 것보다 빠름 -> 새로운 cluster 구축
  13. RDS보다 비용이 더 비싸지만, 더 유연성있고, 덜 관리하고, 더 좋은 성능, 더 많은 기능을 원하면 사용


ElastiCache

  1. Redis / Memcached 두 종류
  2. 캐싱작업에 활용
  3. in-memory store
  4. 1ms 미만의 읽기 성능을 제공
  5. 캐싱을 위한 EC2 인스턴스가 프로비저닝 되어야 함
  6. Redis에서는 Clustering 기능 제공 및 Multi-AZ, Sharding을 통한 읽기 전용 복제본 제공
  7. IAM을 통한 접근 보안, Security Groups(네트워크 수준의 접근), KMS(데이터 저장), Redis Auth가 있음
  8. RDS처럼 백업 및 Snapshot, point in time restore 기능 제공
  9. app code가 ElastiCache를 사용하도록 수정 필요
  10. Use Cases : key-value store, 빈번한 읽기, DB 쿼리 캐싱, 세션 데이터 저장 등
  11. SQL 사용 불가


DynamoDB

  1. ms단위의 성능을 제공하는 Serverless NoSQL DB
  2. provisioned capacity mode : 지정된 용량 범위 내에서 auto scaling, 점진적인 증감이 있을 떄 활용
  3. on-demand capacity mode : 용량을 프로비저닝할 필요가 없음, 예측하기 어려운 workload에 따라 자동으로 scaling, 가파른 증감이 있을 때 활용
  4. key-value 저장소 -> elastiCache 대체 가능
  5. 세션 데이터를 저장하기 좋음 -> TTL 기능으로 일정 시간 뒤에 세션을 만료시킴
  6. 고가용성 -> Multi-AZ, 읽기/쓰기 분리
  7. DynamoDB와 완벽히 호환되는 캐싱 기능인 DAX cluster 제공 (ms단위의 읽기 성능)
  8. 보안/인증/인가 등의 기능이 모두 IAM을 통해 이루어짐
  9. DynamoDB Streams를 활성화하여 이벤트 처리 기능도 추가할 수 있음 (DynamoDB Streams : DB에 일어나는 변경사항을 감지하여 스트리밍) -> Lambda, Kinesis Data Streams등과 결합하여 이벤트 처리)
  10. Global Tables 기능 제공 -> 다수 region에 걸친 active-active 복제 가능
  11. 최대 35일의 자동 백업 옵션 (point in time restore 기능 활성화 필요) -> 자동백업 옵션을 활용하여 S3로 데이터를 내보내면, RCU사용없이 PITR window로 가능, S3에서 새로운 테이블로 가져올 때에도 WCU 사용없이 가능
  12. 장기 보관을 위한 On-demand 백업 옵션
  13. 빠르게 스키마를 변경하거나, 유연하게 변경해야할 때 유용


S3

  1. key-value 형태로 저장 -> 큰 객체를 저장할 때 유용, 여러 개의 작은 객체를 저장할 때는 비효율
  2. Serverless
  3. 객체 최대 크기 5TB
  4. Versioning 기능
  5. 다양한 스토리지 지원, Storage tiers : S3 Standard, S3 Infrequent Access, S3 Intelligent, S3 Glacier + tier 전환을 위한 lifecycle policy
  6. Versioing, Encryption, 복제, 영구삭제를 위한 MFA, logs 등의 기능들을 제공
  7. IAM을 통한 접근 보안, 버킷에 대한 접근 권한인 S3 Bucket Policy, Access Point 생성, ACL, CORS, 객체 잠금 기능 등 보안기능 제공
  8. Encryption : SSE-S3 (자체키 기반), SSE-KMS (관리할 수 있는 KMS키 기반), SSE-C, client-side 인증, TLS 전송보안
  9. S3 객체에 대한 대량 처리가 필요할 때 -> S3 Batch (use case : 비암호화 객체 일괄 암호화 등)
  10. 성능 : Multi-part upload (파일 병렬식 upload), S3 Transfer Acceleration, S3 Select (필요한 데이터만 검색)
  11. Automation : S3 Event Notifications (SNS, SQS, Lambda 등과 결합 가능)
  12. Use cases : 정적 파일, key-value 형태의 대량 file 저장소, 웹사이트 호스팅 등


DocumentDB (mongoDB)

  1. DocumentDB는 MongoDB의 Aurora 버전
  2. NoSQL DB
  3. mongoDB 기반
  4. JSON 데이터를 저장, 쿼리, 인덱스
  5. 배포개념이 Aurora와 유사 -> 완전 관리형 DB, 3 AZ에 걸친 고가용성
  6. 스토리지는 자동적으로 10GB까지 확장됨
  7. 초당 수백만개의 요청을 작업하기 위해 scale될 수 있음


Amazon Neptune

  • Graph 데이터셋의 예시 : Social Network -> 과정(데이터)들이 모두 연결됨
    1. 사용자는 친구를 팔로우
    2. 댓글을 게시
    3. 다른 사용자의 댓글을 좋아요
    4. 게시글을 공유


  1. 완전 관리형 graph DB
  2. like Social Network
  3. 3 AZ에 걸쳐 최대 15개의 읽기전용 복제본을 가짐 -> 가용성이 높음
  4. 고도로 연결된 데이터 셋을 사용하는 app에 적합
  5. DB에 수십억 개의 관계를 저장
  6. 그래프를 쿼리할 때의 지연시간은 ms단위
  7. 위키피디아 지식 데이터와 같이 고도로 연결되어 있는 데이터에 적합 (추천 엔진, 소셜 네트워크 등)


Amazon Keyspaces (Apache Cassandra)

  1. Apache Cassandra를 지원
  2. Apache Cassandra : 오픈 소스의 NoSQL 분산 DB
  3. Serverless
  4. 완전 관리형, 확장성/가용성 높음
  5. app 트래픽에 따른 Auto Scaling 기능 제공
  6. 테이블 데이터는 여러 AZ에 걸쳐 세 번 복제됨
  7. 쿼리 수행에는 CQL(Cassandra Query Language)가 사용됨
  8. 지연시간 10ms
  9. 초당 수천 건의 요청 처리
  10. On-demand mode과 Provisioned mode with auto-scaling 두 가지 모드 지원 (DynamoDB와 동일)
  11. 암호화, 백업, 최대 35일의 PITR 기능 제공
  12. Use cases : IoT 장치 정보와 시계열 데이터 저장 등


Amazon QLDB

  1. Quantum Ledger Database
  2. Ledger : 금융 트랜잭션을 기록하는 장부
  3. 완전 관리형, Serverless, 고가용성 (3개 AZ에 걸쳐 복제)
  4. app 데이터의 시간에 따른 변경 내역을 검토하는 데 사용 -> 장부
  5. DB에 데이터를 기록하면 삭제하거나 수정할 수 없음 -> 불변 시스템
  6. QLDB Journal내에서 수정할 때마다 암호화 해시가 계산되어 추가됨 -> DB에서 삭제 불가, 수정본 추가방식(?)
  7. 일반 ledger blockchain framework보다 2~3배 나은 성능
  8. 관리형 블록체인과의 차이점은 QLDB는 탈중앙화 개념이 없음 -> Amazon 소유의 중앙 DB에서만 데이터 작성 가능




Amazon Timestream

  1. 시계열 DB
  2. 완전 관리형, 빠름, scale 가능, serverless
  3. 시계열(timestream) : 시간정보를 포함하는 point의 모음
  4. DB의 용량을 자동으로 확장/축소 가능
  5. 매일 수조 건의 이벤트를 저장/분석 가능
  6. 시계열 데이터에는 관계형 DB보다 시계열 DB를 활용하는 것이 속도나 비용측면에서 훨씬 이점
  7. SQL에 호환
  8. 최신 데이터는 메모리에 저장
  9. 과거 데이터는 비용 효율적인 스토리지 계층에 저장
  10. 시계열 분석 기능이 있어서 실시간으로 분석하고 패턴을 찾을 수 있음
  11. 전송중 암호화, 저장 암호화를 지원
  12. Use cases : IoT apps, 실시간 분석, 운영 app 등


  • Architecture

반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] IAM 고급  (0) 2024.06.25
[AWS] CloudWatch and CloudTail  (1) 2024.06.11
[AWS] Serverless (Lambda/DynamoDB/API Gateway)  (1) 2024.06.08
[AWS] AWS Container Service  (0) 2024.06.01
[AWS] SQS, SNS, Kinesis, Active MQ  (0) 2024.06.01
728x90
반응형




Serverless

  • Serverless : Server가 없는 것은 아니고 관리할 필요가 없음 (서버가 보이지 않거나 provisioning 필요x)


  • Serverless in AWS

  1. AWS Lambda
  2. DynamoDB
  3. AWS Cognito
  4. AWS API Gateway
  5. Amazon S3
  6. AWS SNS & SQS
  7. AWS Kinesis Data Firehose
  8. Aurora Serverless
  9. Step Functions
  10. Fargate




AWS Lambda

  • AWS Lambda : 관리할 서버가 필요없는 코드실행 서비스


  • 특징

  1. 최대 15분 실행
  2. 호출을 받을 때, 온디맨드로 실행
  3. 실행되는 동안에만 비용 청구
  4. 스케일링 자동화


  • 장점
  1. 쉬운 가격 책정 (요청 횟수 및 컴퓨팅 시간에 따라 책정 -> Lambda가 실행된 만큼)
  2. Free Tier에서는 요청 백만건과 40GB/s의 컴퓨팅 시간 제공
  3. 다양한 AWS 서비스와 연결 가능
  4. 많은 프로그래밍 언어와 호환 -> 오픈소스 덕분
    • Node.js
    • Python
    • Java
    • C#
    • Golang
    • Ruby
    • Lambda Container Image -> Container Image 자체가 Lambda의 API가 됨 (Container 상에서 Lambda API가 있어야하기 때문) -> Image에 Lambda API가 없는 경우, ECS나 Fargate에서 Container를 실행하는 것이 더 좋음
    • etc...
  5. CloudWatch와의 통합 쉬움
  6. 함수당 최대 10GB의 램을 제공받을 수 있음 -> RAM을 증가시키면, CPU 및 네트워크 성능도 같이 좋아짐


  • Lambda와의 통합 방식
  1. API Gateway : Lambda를 호출하는 Rest API 생성
  2. Kinesis : Lambda를 활용해 데이터 변환
  3. DynamoDB : DB상에 특정 이벤트가 생기면 Lambda를 실행하도록 트리거를 생성
  4. S3 : 언제든 Lambda를 실행할 수 있음
  5. CloudFront : Lambda 전용 CloudFront, Lambda@Edge
  6. CloudWatch / EventBridge : AWS 인프라이 어떤 일이 생기고 자동 대응을 하려고할 때 활용
  7. CloudWatch Logs : log를 스트리밍할 때 활용
  8. SNS : SNS로 알림을 보내고 SNS topic에 따른 처리를 진행할 때 활용
  9. SQS : SQS Queue 메세지 처리할 때 활용
  10. Cognito : DB를 활용하여 로그인할 때마다 응답 (인증처리)


  • Example1 : Thumbnail creation




  • Example2 : Serverless CRON Job
    : EC2 등에서 CRON을 활용할 때, 스케줄링이 안되는 시간대에는 낭비가 있어서 Lambda에 활용하는 것이 적절 -> CloudWatch에서 스케줄링 되도록 설정




  • Lambda Pricing
  1. 호출당 청구
    • 처음 백만건 요청은 무료
    • 이후 백만건 마다 20센트 과금
  2. 기간당 청구 (1ms 단위)
    • 한달간 첫 40만GB/s(=1GB RAM을 40만초 사용) 동안은 무료
    • 이후에는 60만GB/s당 1달러 과금


Lambda Limits

  • 실행한도
  1. Memory : 128MB ~ 10GB (1MB단위로 증가, CPU성능도 같이 증가)
  2. 실행시간 : 최대 900초 (15분)
  3. 환경변수 : 최대 4KB
  4. 임시공간 : 512MB ~ 10GB (/tmp, 파일처리 등과 같이 공간활용이 필요할 때 사용)
  5. 동시실행 : 1000개 (미리 예약하고 쓰는 것 권장)


  • 배포한도
  1. 압축 시 50MB, 비압축 시 250MB -> 한도 넘는 경우, /tmp공간 활용 필요
  2. 배포 후 시작할 때, 크기가 큰 파일이 있을 경우 /tmp 공간 활용 권장
  3. 환경변수 : 최대 4KB


Lambda SnapStart

  • Lambda SnapStart : Lambda SnapStart이 활성화 되어 있을 경우, Lambda Function이 미리 초기화된 상태에서 호출 -> 성능 향상

  • Java11 이상에서 실행되는 Lambda Function의 성능을 추가 비용없이 10배 높여줌

  • 원리 : Lambda Function이 실행되면 메모리와 초기화된 Lambda Function 디스크 상태의 SnapShot 생성됨 -> 생성된 SnapShot은 캐싱되어 다음 Lambda Function 실행 때 활용됨 -> SnapStart


  • LifeCycle




Edge Function

  • Edge Function : app에 도달하기 전, Edge에서 특정 logic을 실행하는 Function -> 지연시간 최소화

  • Edge Function을 사용하면 전역으로 배포되기 때문에 서버관리가 필요하지 않음

  • Use Case : CrontFront의 CDN 콘텐츠 커스터마이징


  • CloudFront 함수의 종류

  1. CloudFront Functions
  2. Lambda@Edge


  • Use Cases
  1. Dynamic Web Application
  2. 검색 엔진 최적화 (SEO)
  3. Origin-DataCenter간 지능형 라우팅
  4. 엣지에서의 실시간 이미지 변환
  5. A/B Test
  6. 사용자 인증 및 인가
  7. 사용자 우선순위 지정
  8. 사용자 추적 및 분석
  9. Website Security and Privacy


  • CloudFront Functions
  1. javascript로 작성된 경량함수
  2. 확장상이 높고 지연 시간에 민감한 CDN 커스터마이징에 활용
  3. 최대 실행시간은 1ms 미만 (very simple code), 초당 백만 개의 요청 처리
  4. 고성능/고확장성, viewer의 요청과 응답을 수정할 때에만 사용
  5. 모든 코드가 CloudFront에서 직접 관리
  6. Use Cases
    • 캐시 key 정규화 (요청의 attribute를 변환하여 key 변환)
    • HTTP 헤더 조작
    • URL를 다시 쓰거나 redirect
    • 요청 인증 및 인가 (ex. JWT 생성 및 검증 등)


  • Lambda@Edge
  1. Node.JS나 Python으로 작성
  2. 초당 수천 개의 요청 처리
  3. 모든 CloudFront 요청 및 응답을 변경할 수 있음 -> Origin 요청/응답도 수정 가능
  4. us-east-1 region에만 코드 작성 가능 (CloudFront 배포를 관리하는 region과 같은 region -> 함수를 작성하면 CloudFront가 모든 location에 해당 함수 복제)
  5. 최대 실행시간은 5~10초
  6. Use Cases
    • 여러 라이브러리 로드
    • 타사 라이브러리 의존
    • SDK로 다른 AWS서비스에 접근
    • 네트워크를 통해 외부 서비스에서의 데이터 처리
    • 파일 시스템 및 HTTP요청 body에도 접근 가능




Lambda Network

  • 기본적으로 Lambda 함수는 VPC 외부에서 시작 -> Lambda는 VPC내부에서 실행되는 AWS 서비스에 접근 불가 -> 인터넷상의 public API 접근 가능 -> VPC내 접근을 위해 VPC에서 Lambda 함수 시작 필요 -> VPC 생성 후 해당 서브넷을 Lambda에 할당하고 보안 그룹 추가 -> 서브넷에 생성된 ENI(Elastic Network Interface)를 통해 VPC 내부 서비스에 접근 가능




  • RDS Proxy
  1. RDS에 Lambda가 직접 접근하게되면, Lambda가 Scale-Out 되었을 때 RDS에 큰 부하를 줄 수 있음 -> RDS Proxy 활용 필요
  2. DB 연결 pool을 공유함으로써 확장성 향상
  3. 장애가 발생할 경우에 가용성이 향상되고 연결이 보존됨
  4. RDS Proxy에서 IAM인증을 강화하여 보안을 높일 수 있고, credential을 Sercets Manager 안에서 관리할 수 있음
  5. RDS Proxy를 통한 접근을 위해 Lambda는 반드시 동일 VPC내부에 있어야 함 (RDS Proxy는 public에서 접근 불가)




RDS/Aurora에서의 Lambda 호출

  • RDS/Aurora에서의 Lambda 호출 : DB에서 일어나는 데이터 이벤트를 처리할 수 있음
  • RDS for PostgreSQL/Aurora MySQL에서 지원
  • AWS Console 설정이 아님
  • RDS DB로부터 Lambda로 오는 트래픽 허용 필요 -> Lambda가 public일 경우, NAT GW/VPC Endpoint 등 사용할 수 있음
  • RDS가 Lambda호출할 권한 필요 (IAM 정책 조정 필요)




  • RDS Event Notifications
  1. AWS 안에서 DB에 대한 정보(ex. created, stopped, start, etc...)를 알림 (메타데이터?)
  2. DB안의 데이터는 포함하지 않음 (DB 컬럼정보x) -> DB 컬럼 데이터에 관한 정보는 Lambda를 통해야 함
  3. 알림 전달 최대 시간 : 5분
  4. SNS 또는 EventBridge에 전달 가능




DynamoDB




  • 특징
  1. 완전 관리형 DB
  2. 다중 가용영역에 복제되므로 가용성 좋음
  3. AWS 독점 NoSQL
  4. 트랜잭션 지원 기능 있음
  5. DB가 내부에서 분산되기 때문에 방대한 workload에 적용 가능
  6. 초당 수백만 개의 요청 처리, 수조개의 rows, 수백 TB 스토리지 -> 성능 좋고, 일관성 높음
  7. 보안 관련 기능은 IAM 활용
  8. 비용이 적게 들고, 오토 스케일링 기능이 있음
  9. 유지관리나 패치가 필요하지 않음
  10. 테이블 클래스
    • Standard : 데이터가 빈번함
    • IA : 데이터가 빈번하지 않음


  • 기초
  1. Aurora나 RDS와 달리 DB를 별도 생성하지 않아도 됨 -> DynamoDB는 DB가 이미 존재함
  2. 테이블로 구성된 DB
  3. PK는 테이블 생성 시, 결정됨
  4. 테이블마다 rows를 무한히 추가할 수 있음
  5. 테이블당 attribute는 열로써 표시됨 -> null이 될 수도 있음
  6. 열을 언제든 쉽게 추가할 수 있음 -> 각 row에서 attribute 형식이 달라도 됨
  7. row의 최대 크기는 400KB
  8. 다양한 데이터 형식 지원
    • Scalar : 문자열, 숫자, 바이너리, 불리언, null
    • Document : List, Map
    • Set : String Set, Number Set, Binary Set
      9. DynamoDB는 스키마를 빠르게 적용해야할 때 유용


  • Read/Write Capacity Modes
  1. Provisioned Mode (default)
    • 사전에 용량을 Provisioning
    • Provisioning된 RCU(Read Capacity Unit)/WCR(Write Capacity Unit)만큼의 비용 지불
    • 오토 스케일링 기능이 있어 테이블에 대한 트래픽에 따라 RCU/WCR 조절 가능
    • 스키마가 서서히 적용되고, 비용 절감이 필요할 때 활용
    • 대충 Workload의 범위 예측 가능 -> 오토 스케일링 기능으로 조절 하면됨
  2. On-Demand Mode
    • 읽기/쓰기 용량이 Workload에 따라 자동 확장
    • RCU/WCR 개념이 없음 (미리 Provisioning 하지 않기 때문)
    • 사용한 만큼의 비용 지불
    • Workload를 예측할 수 없거나 급격히 증가하는 경우에 활용
    • Workload 범위도 예측이 안될 경우




  • DynamoDB Accelerator (DAX)
  1. 완전 관리형 seamless in-memory cache
  2. 고가용성
  3. 읽기 작업이 많을 때, DAX 클러스터를 생성하고 데이터를 캐싱함
  4. ms단위의 저지연 시간의 읽기 성능 제공
  5. 기존 DynamoDB API와 호환 -> app logic 변경이 필요하지 않음
  6. TTL은 default로 5분으로 설정되어있으나 변경 가능
  7. ElastiCache가 아닌 DAX를 사용하는 이유
    • 개별 객체에 대한 cache 처리에 유용 -> 집계 결과 처리에는 ElastiCache가 더 좋음
    • 쿼리 및 스캔 cache 처리에 유용 -> 대용량의 연산을 저장할 때 좋음
    • DynamoDB 앞에 배치




  • DynamoDB Stream Processing
  1. 테이블에 대한 수정사항을 Stream으로 생성할 수 있음 -> 변경사항에 실시간으로 반응
  2. Use cases
    • 사용자 테이블에 새로운 사용자가 등록되었을 때, 환영 이메일 전송
    • 실시간 사용 분석
    • 파생 테이블 insert
    • region간 데이터 복제
    • 테이블 변경사항에 대한 Lambda 함수 실행
  3. Stream 처리의 두 가지 유형
    • DynamoDB Streams : 보존기간 24시간, 소비자 수 제한, Lambda 트리거와 주로 사용, 자체적 읽기를 위해 DynamoDB Stream Kinesis 어댑터 사용
    • Kinesis Data Streams : 보존기간 1년, 더 많은 소비자 수, 데이터 처리 방법이 다양 (Lambda, Kinesis Data Analytics, Kinesis Data Firehost, Glue Streaming, etc...)




  • DynamoDB Global Tables
  1. 여러 region간 복제 가능 테이블
  2. 여러 region중 하나의 region의 테이블에 작업을 하면, 다른 region에 복제되어 있는 테이블에도 자동 동기화
  3. 다수의 region간 복제본을 통해 DynamoDB로의 저지연 접근을 가능하게 함
  4. 다중 활성 복제 가능 (Active-Active)
  5. 모든 region에서 테이블에 데이터를 읽고 쓸 수 있음
  6. DynamoDB Stream 기능 활성화 필요




  • DynamoDB Time To Live (TTL)
  1. 시간이 지나면 자동으로 item(=row)를 삭제하는 기능
  2. row의 attributes중 하나
  3. 현재 시간이 TTL상의 시간을 초과하면, 해당 item 삭제 처리


  • Backups for disaster recovery
  1. PITR (point-int-time recovery)를 활용하여 지속적 백업 가능
    • 활성화를 선택하면 35일 동안 지속
    • 백업기간 내 언제든 복구 수행 가능
    • 복구를 진행할 경우, 새로운 테이블 생성
  2. On-demand backups
    • 데이터를 직접 삭제할 때까지 보존
    • 테이블의 성능이나 지연시간에 영향을 주지 않음
    • 백업 관리 서비스로 AWS Backup이 있음 -> 해당 백업 방식에 lifecycle 홞성화 가능, region간 백업 복제 가능 -> 새로운 테이블 생성


  • Amazon S3와의 통합
  1. S3에 DynamoDB 테이블을 내보내기 위해 PITR 활성화 필수 -> 35일 내에 내보내기 가능
  2. 쿼리 실행 시, AWS Athena 서비스 활용
  3. 테이블을 내보내도 테이블의 읽기 용량이나 성능에 영향이 없음
  4. S3 내보내기를 통한 데이터 분석 가능
  5. 감사 목적의 snapshot 확보 가능
  6. S3에서 다시 DynamoDB로 가져올 때 데이터의 대규모 변경 가능
  7. 내보낼 때, DynamoDB JSON이나 ION형식 이용
  8. S3에서 테이블을 가져올 때에는 CSV/JSON/ION형식의 객체를 기반으로 새로운 DynamoDB 테이블을 생성하게 됨 -> 쓰기 용량을 소비하지 않고 새로운 테이블 생성
  9. 가져올 때 발생한 오류는 모두 CloudWatch Logs에 기록


API Gateway

  • Client에서도 Lambda를 호출하려면 IAM권한 필요
  • ALB와 Lambda의 조합을 활용하게 되면 HTTP endpoint가 노출됨 (서버리스가 아님)




  • API Gateway : Client가 Lambda를 호출할 수 있도록 REST API를 제공하는 서버리스 서비스, Lambda 함수에 요청을 Proxy함
  • 사용 이유
  1. 인증 기능 제공
  2. 사용량 계획 기능 제공
  3. 개발 환경 기능 제공


  • 특징
  1. Lambda와 결합할 경우, 완전 서버리스
  2. WebSocket 프로토콜 지원 -> 두 가지 방법의 실시간 스트리밍 가능
  3. API Versioning을 핸들링 함 (Version 변경이 있어도 client와의 연결이 끊기지 않음)
  4. dev, test, prod 등 여러 환경 지원
  5. 여러 보안 기능 제공
  6. API key 생성 -> client의 요청 조절
  7. Swagger나 기타 Open API의 공통 표준을 가져올 수 있음 -> 내보낼 수도 있음
  8. 요청 및 응답의 유효성 검증
  9. SDK/API 스펙 생성
  10. API 응답 캐싱


  • 통합
  1. Lambda Function : 서버리스로 Lambda를 client에게 노출시키는 가장 일반적인 방법
  2. HTTP : 클라우드 환경 및 온프레미스 환경의 백엔드를 HTTP로 노출시킬 수 있음 -> 다양한 공통 기능 추가 (ex. 인증, 캐싱 등)
  3. AWS Service : 어떤 AWS API도 노출 가능, Step Function workflow 시작, SQS로 메세지 전송


  • Use Case (Kinesis Data Streams)
    : 사용자가 Kinesis Data Streams에 데이터를 전송할 수는 있지만 AWS 자격증명은 가질 수 없도록 설정




  • Endpoint Types (API Gateway 배포방법)
  1. Edge-Optimized (default)
    • global client용
    • global하게 접근할 수 있음
    • 모든 요청이 CloudFront edge location을 통해 들어옴 -> 지연시간 개선
    • API Gateway는 생성된 region에 위치
  2. Regional
    • CloudFront를 원하지 않을 때 활용
    • API Gateway와 동일한 region의 사용자만 접근 가능
    • 별도로 CloudFront를 배포하여 결합 가능 -> Edge-Optimized 배포와 동일한 결과이지만, CloudFront에 대한 더 많은 권한을 가질 수 있음
  3. Private
    • not Public
    • 배포된 VPC내에서만 접근 가능 (ENI와 같은 VPC 인터페이스 활용)
    • API Gateway로의 접근을 정의할 때 리소스 정책 사용


  • Security
  1. IAM Role을 사용하여 사용자 식별 -> API Gateway에 접근할 때, IAM Role 사용 필요
  2. 외부 사용자에 대한 보안 조치로 Amazon Cognito 사용 가능
  3. 자체로직(ex. Lambda Function)을 구현할 수도 있음 -> Custom Authorizer (사용자 지정 권한 부여자) 활용
  4. HTTPS의 CDN(Custom Domain Name)을 ACM(AWS Certificate Manager)와 통합 가능
    • Edge-Optimized endpoint를 사용할 경우, 인증서는 us-east-1에 있어야 함
    • region endpoint를 사용할 경우, 인증서는 API Gateway와 동일한 region에 있어야 함
  5. Route 53에 CNAME이나 A-alias record를 설정하여 도메인이 API Gateway를 가리키도록 해야 함


Step Functions

  • Step Functions : Serverless Workflow를 시각적으로 구성할 수 있는 기능, 주로 Lambda 함수를 설계할 때 활용




  • Lambda 함수 뿐만 아니라 EC2 연동, ECS, 온프레미스 서버, API Gateway, SQS 등의 workflow 구조를 표현할 때에도 활용
  • Workflow에 사람이 개입하여 승인해야 진행되는 단계를 설정할 수 있음


Amazon Cognito

  • Amazon Cognito : 사용자에게 웹 및 모바일 앱과 상호작용할 수 있는 자격증명을 제공하는 서비스, 익명의 사용자에게 자격증명을 부여하여 해당 사용자를 인식(Cognito)하게 됨


  • IAM vs Cognito : Cognito는 AWS 외부의 app 사용자를 대상으로 함 (keywords : 수백명의 사용자, 모바일 사용자, SAML 인증)


  • Cognito User Pools (CUP)

  1. 웹 및 모바일 앱을 대상으로 하는 서버리스 사용자 DB
  2. 이름/이메일/비밀번호 조합으로 간단한 로그인 절차 수립 가능
  3. 비밀번호 재설정 기능
  4. 이메일/폰번호 유효성 검증
  5. Multi-factor Authentication (MFA) 가능
  6. Facebook, Google, SAML 등 통합 가능 (Federated Identities)
  7. API Gateway 및 ALB와 통합 가능 -> 유효성 검증 책임을 API Gateway나 ALB에 넘김
  8. app 사용자에게 가입기능 제공




  • Cognito Identity Pools
  1. 사용자에게 임시 AWS Identity를 부여하여 AWS 계정에 직접 접근 -> 일부 AWS 서비스에 직접 접근 (API Gateway, ALB 직접 접근x)
  2. Cognito User Pools와 통합 가능
  3. 타사 로그인 활용 가능 (ex. google 등)
  4. API Gateway를 통해 AWS 서비스에 접근 가능
  5. 자격증명에 적용되는 IAM 정책이 Cognito에 사전 정의되어 있음
  6. User_id 기반으로 사용자를 정의하여 세분화된 제어 가능




  • Low Level Security
    : DynamoDB Leading key와 Cognito 자격증명 user_id와 같아야 함. -> 해당 조건을 충족시킨 사용자만 DynamoDB 테이블에 접근 가능

반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] CloudWatch and CloudTail  (1) 2024.06.11
[AWS] AWS Database  (0) 2024.06.08
[AWS] AWS Container Service  (0) 2024.06.01
[AWS] SQS, SNS, Kinesis, Active MQ  (0) 2024.06.01
[AWS] AWS Storage  (0) 2024.05.26
728x90
반응형




Docker Containers Management on AWS

  • Amazon Elastic Container Service (Amazon ECS) : Amazon의 container 플랫폼
  • Amazon Elastic Kubernetes Service (Amazon EKS) : Amazon에서 관리되는 Kubernetes
  • Amazon Fargate : Amazon의 서버리스 Container 플랫폼, ECS/EKS와 함께 동작 가능
  • Amazon ECR : Container Image 저장


Amazon ECS

  • AWS에서 docker container 실행 = ECS Cluster에서 ECS task 실행 (task = container, 생성된 task로 서비스를 배포하는 작업이 추가로 진행되어야 함 -> cluster에서 server 생성 후 맞는 type을 선택하고 Family로 사전 생성한 task를 선택하면 됨 -> 사전에 서비스 배포가 되었기 때문에 해당 task의 갯수가 늘어나면, container의 갯수도 늘어나게됨)


  • ECS Cluster의 Launch Type (task 생성 시, 선택)

  1. EC2 인스턴스
    • infra를 직접 provisioning하고 유지해야함
    • EC2 인스턴스는 각각 ECS Agent를 실행해야 함 -> ECS 클러스터 등록
    • ECS task가 실행되면 AWS가 container를 실행하거나 중단시킴 -> 새로운 Docker Container가 생성되면 임의로 ECS Cluster에 등록된 EC2 인스턴스를 선택하여 배포함




  1. Fargate
    • AWS에서 docker container를 실행하는데, infra를 provisioning 하지않아서 관리할 EC2인스턴스는 없음 -> 서버리스 (서버를 관리하지 않아서)
    • ECS task 정의만 생성하면 필요한 CPU/RAM에 맞게 ECS task를 AWS가 대신 실행 (관리자는 어느 서버에서 실행되는지 모름)
    • 확장이 필요하면 ECS task만 더 생성하면 됨




  • IAM Roles
  1. EC2 인스턴스 profile
    • EC2 type에만 활용됨
    • ECS Agent만 EC2 인스턴스의 profile을 관리하고, 이를 활용하여 ECS API 호출 -> ECS 서비스가 CloudWatch log에 API 호출하여 Container log를 보냄 -> ECR로부터 docker image 수신
    • Secret Manager나 SSM Parameter Store에서 민감 데이터를 참고하기도 함
  2. ECS Task Role
    • ECS task는 Task Role을 가짐
    • EC2 및 Fargate type에 모두 활용됨
    • 만약 두 개의 task가 있다면, 각각에 특정 Role을 만들 수 있음
    • ECS task role은 각자 다른 ECS 서비스를 이용할 수 있음 (ex. task A는 S3 API 호출, task B는 DynamoDB에 API 호출)
    • task를 정의하여 생성할 때, Role을 정의할 수 있음




  • Load Balancer Integrations
  1. EC2 및 Fargate type 모두 가능
  2. ECS 클러스터 내부에 많은 ECS task가 실행됨
  3. 많은 ECS task는 HTTP/HTTPS endpoint로 활용되길 원함 -> ALB 활용 -> 사용자는 ALB를 경유하여 ECS task에 연결될 수 있음
  4. ALB대신 NLB가 사용될 수도 있는데, 해당 경우는 처리량이 많거나 높은 성능이 요구될 때 권장 (AWS Private Link와 사용할 때 권장)




  • Data Volumes (EFS)
  1. EC2 task에 File System을 마운트하여 데이터 공유 원함 -> EFS 활용
  2. EFS는 EC2 및 Fargate 모두에 호환됨
  3. EFS를 마운트한다면, 가용영역이 달라도 데이터를 공유할 수 있음 (EFS의 특징)
  4. EFS를 활용하여 다른 task와도 연결 가능
  5. EFS내부의 Fargate를 쓸 때 좋음 (EFS도 서버리스이기 때문)
  6. Use case : Multi-AZ에 걸쳐 배포된 Container의 영구적인 Storage
  7. Amazon S3는 ECS에 의해 마운트될 수 없음




ECS Auto Scaling

  • ECS Auto Scaling : ECS task의 수를 자동으로 늘려주고 줄여줌


  • Scaled Metrics

  1. ECS의 CPU 사용률
  2. ECS의 RAM 사용률
  3. ALB의 target당 요청 수


  • Scaling Types
  1. Target Tracking : CloudWatch의 특정 값 기준
  2. Step Scaling : CloudWatch의 특정 알람 기반
  3. Scheduled Scaling : 트래픽의 변화가 예측되는 정해진 시간 기준


  • ECS Auto Scaling (task level) != EC2 Auto Scaling (EC2 Instance level) -> EC2 Auto Scaling 기능이 없다면, Fargate로 전환 후 ECS Auto Scaling을 쓰는 것이 좋음 -> 서버리스


  • EC2 Instance Auto Scaling 방법 (launch type이 EC2일 때)

  1. EC2 Auto Scaling Group
  2. ECS Cluster Capacity Provider : 새 task를 실행할 용량이 부족하면, 자동으로 ASG 확장 (with ASG, ECS Cluster CPU/RAM사용량 기반)


  • Example : ECS Cluster Capacity Provider를 활용하는 Service의 트래픽이 증가할 경우, CloudWatch가 CPU사용량 증가를 인식하고 Alarm을 발생시킴 -> CloudWatch Alarm은 scale out 요청을 하게되고, Capacity Provider는 희망용량을 증가시켜 task가 자동으로 증가됨 -> task가 증가됨에 따라 EC2인스턴스가 증가됨




  • Event Bridge에 의한 ECS
    : EventBridge는 수신된 Event를 전달하는 역할 -> Event를 받으면 ECS task를 실행시키기 위한 rule이 설정되어 있을 경우, ECS task 실행에 대한 요청을 ECS Cluster에 보냄 -> ECS task Role에 따라 처리




  • Event Bridge Schedule에 의한 ECS
    : 1시간마다 스케줄링되는 EventBridge에 의해 특정 ECS Task가 실행됨 -> 생성되는 task Role에 맞는 작업 진행 -> 서버리스




  • SQS Queue에 의한 ECS
    : 서비스가 SQS Queue로부터 메세지를 직접 가져와 처리




  • Intercept StoppedTasks using EventBridge
    : EventBridge를 통한 ECS Cluster내에서 Event를 가로채는 방식 -> ECS Cluster내에서 task에 관한 Event가 발생될 경우, EventBridge에 트리거됨 (json형태의 데이터 전송) -> 해당 트리거를 이용하여 SNS topic에 메세지를 전송하고, 관리자에게 메일을 전송하는 등의 case에 활용될 수 있음




Amazon ECR

  • Amazon ECR : Elastic Container Registry, AWS에 Docker image를 저장하고 관리하는데 사용


  • 계정에 한해 image를 비공개로 저장 -> 여러 계정으로 권한 확대할 수 있음

  • public으로 image를 저장할 수도 있음

  • image는 background에서 S3에 저장됨

  • ECS Cluster내 EC2 IAM Role을 통해 ECR로부터 Docker image를 가져올 수 있음 (ECR에 대한 모든 접근은 IAM이 보호)

  • image의 단순 저장뿐만 아니라 image 취약점 스캐닝, versioning, tag 및 life cycle 확인 지원




Amazon EKS

  • Amazon EKS : Elastic Kubernetes Service, AWS에서 kubernetes를 실행할 수 있는 service


  • Amazon ECS와 비슷하지만, 사용하는 API가 다름

  • EKS Launch Modes

  1. EC2 Instance : EC2에 Worker Node 배포
  2. Fargate : EKS Cluster에 서버리스 Container 배포


  • 특징
  1. kuberentes는 모든 Cloud에서 지원 (Azure, Google Cloud 등) -> 클라우드간 마이그레이션에 유용
  2. Use Case : 회사가 온프레미스나 클라우드에서 Kubernetes or Kuberentes API를 사용중일 때, 해당 Kubernetes를 관리하기 위해 Amazon EKS를 활용




  • Node Types
  1. Managed Node Groups : AWS로 노드(EC2 Instance)를 생성하고 관리
    • 노드는 EKS로 관리되는 ASG의 일부
    • 온디맨드 인스턴스와 Spot 인스턴스를 지원
  2. Self-Managed Nodes : 노드를 직접 생성하고 EKS Cluster에 등록하여 Cluster내 ASG에 의해 관리
    • 사용자 지정사항 or 제어대상이 많은 경우 사용
    • 최적화된 Amazon EKS AMI를 사용하면 부팅시간을 줄일 수 있음
    • 온디맨드 인스턴스와 Spot 인스턴스를 지원
  3. Fargate
    • 노드를 원하지 않는 경우 사용
    • 유지관리 필요 없음


  • Data Volumes
  1. EKS Cluster에 Storage Class manifest를 지정해야 함
  2. CSI (Container Storage Interface)라는 규격의 드라이버 사용 -> Cluster 설정의 Add-ons에서 해당 드라이버 설정 필요
  3. Amazon EBS, Fargate모드를 지원하는 유일한 유형인 Amazon EKS, Amazon FSx for Lustre, Amazon FSx NetAPP ONTAP 지원


AWS App Runner

  • AWS App Runner : 인프라나 소스코드를 알 필요 없이 누구나 AWS에 배포할 수 있음

  • 완전 관리형 서비스로 서비스 규모에 따라 Web Application, API 배포를 지원


  • 배포 방법

  1. Docker image or Source code를 가지고 원하는 구성 설정 -> CPU/RAM 설정, ASG여부 등
  2. 설정을 기반으로 Container에 자동 배포
  3. URL이 생성되면 해당 URL로 접근 가능




  • 장점
  1. Auto Scaling 가능
  2. 고가용성
  3. Load Balancing
  4. 암호화 기능 지원
  5. custom VPC 배포 지원
  6. DB, 캐시, 메세징 서비스 등에 연결 가능


  • Use case : 웹앱 application의 신속한 배포가 필요한 경우
반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] AWS Database  (0) 2024.06.08
[AWS] Serverless (Lambda/DynamoDB/API Gateway)  (1) 2024.06.08
[AWS] SQS, SNS, Kinesis, Active MQ  (0) 2024.06.01
[AWS] AWS Storage  (0) 2024.05.26
[AWS] CloudFront and Global Accelerator  (0) 2024.05.26
728x90
반응형




Amazon SQS

  • SQS Queue : Producer와 Consumer를 분리하는 buffer역할을 하는 메세지 저장소(?)

  • Producer : SQS Queue에 메세지(ex. 명령 등)를 보내는 생산자

  • Comsumer : SQS Queue에 있는 메세지를 수신하는 대상, polling 방식으로 Queue로부터 메세지를 가져옴 (Queue에게 수신자 대상의 메세지가 있는지 확인 후, 있으면 가져옴) -> 메세지 수신 후, Queue에서 해당 메세지 삭제


  • Standard Queue

  1. 가장 오래된 Queue
  2. 완전 관리형 for decouple application
  3. 무제한 처리량, 대기열 메세지 수도 제한 없음
  4. 메세지는 수명이 짧음 -> 메세지는 기본적으로 Queue에 4일 동안 저장되고, 최대 14일까지도 유지됨 -> Consumer가 메세지 수명 기간안에 수신해야 함
  5. 저지연 성능 -> 메세지 송신/수신 시간이 매우 짧음
  6. 메세지 크기는 작아야 함 (< 256KB)
  7. 동일 메세지가 여러번 송/수신 되는 경우가 있음 (중복 메세지 있을 수 있음)
  8. can have out of order messages (best effort ordering) -> 메세지 수신 순서를 정할 수 있다는 말인 듯?


  • Producing Messages
  1. Producer(application)는 SQS로 메세지를 보내는 SDK를 통해 SQS Queue에 메세지를 보낼 수 있음
  2. use case : 어떤 처리를 위한 오더 메세지를 보낼 수 있음 (처리에 필요한 값과 함께)




  • Consuming Messages
  1. Consumer는 application으로 EC2 인스턴스나 온프레미스, Lambda가 될 수 있음
  2. polling방식으로 메세지 수신 -> consumer가 SQS Queue에 자신에게 온 메세지가 있는지 질의
  3. 한번에 최대 10개까지의 메세지 수신
  4. consumer가 메세지를 수신한 후, DB에 메세지의 값을 저장하는 등 처리를 완료하면 SQS Queue상의 해당 메세지를 삭제해야할 의무가 있음 (SQS SDK의 DeleteMessage API 활용)
  5. Consumer를 여러개 가질 수 있음 -> 메세지를 먼저 수신한 Consumer가 메세지를 빠르게 처리하여 삭제하는 것이 아니라면 다수의 Consumer들이 메세지를 수신할 수 있음 -> 메세지 수신 순서를 정해야 함
  6. Consumer를 늘리는 방식으로 처리량을 늘릴 수 있음




  • SQS with Auto Scaling Group (ASG)
    : Queue의 길이(ApproximateNumberOfMessages, CloudWatch 지표 : Queue내 메세지 갯수)가 특정 기준을 넘으면 CloudWatch Alarm이 발생하도록 할 수 있음 -> 더 많은 양의 메세지 처리가 필요하기 때문에 ASG에 Alarm을 보내어 Scale-Out이 되도록 함 -> SQS의 메세지 처리량 증가 -> 축소도 가능




  • SQS to decouple between application tiers
    : front에서 S3로 video처리를 바로 요청하여 받으면 느릴 수 있음 -> 아래 사진의 SQS + ASG 구조 적용, 더 좋은 성능의 Back 서버를 경유하게 하여 Video 처리 진행 -> 성능 개선


  • SQS Security

  1. HTTPS로 메세지를 보내고 수신함 -> 전송중 암호화 (SSE-SQS, SSE-KMS 두 가지 key 지원)
  2. KMS키를 활용하여 전송중 암호화 가능
  3. client에서 직접 암호화/복호화 가능 -> SQS에서 기본적으로 지원하는 기능은 아님
  4. IAM 정책을 통해 SQS API로의 접근을 제어할 수 있음 (호출측? 제어)
  5. S3 Bucket Policy와 같은 SQS Access Policy도 있음 -> 교차계정 접근이나 다른 서비스에서의 접근을 허용하는 데 유용함 (응답측? 제어)


Message Visibility Timeout

  • Message Visibility Timeout : Consumer가 Queue의 Message받고 처리하기 시작했을 때부터 Visibility Timeout 시간동안 다른 Consumer가 Message를 수신할 수 없음 -> 다른 Consumer는 해당 시간동안 Message가 보이지 않음 (default : 30s)
  • Visibility Timeout 시간이 지나고 Message가 삭제되지 않으면 다른 Consumer가 해당 Message를 수신하여 처리할 수 있게됨 -> 해당 시간 동안 처리되지 않으면 동일한 Consumer가 동일한 Message를 수신하거나, 다른 Consumer가 수신할 수 있게됨
  • ChangeMessageVisibility API를 호출하여 더 많은 Visibility 시간을 확보할 수 있음




Long Polling

  • Long Polling : Consumer가 Queue에 메세지를 요청했을 때, 메세지가 없을 경우 메세지가 Queue에 생성될 때까지 기다리는 것

  • Long Polling시간은 1s~20s사이로 설정 가능


  • 활용이유

  1. 지연시간과 API호출을 줄이기 위해 활용
  2. Long Polling중 메세지가 Queue에 수신되면, 해당 메세지를 Consumer가 저지연시간으로 빠르게 읽을 수 있음


  • 활용방법
  1. WaitTimeSeconds를 지정하여 Consumer가 스스로 Long Polling 진행
  2. Queue레벨에서 Polling하는 아무 소비자가 Long Polling 진행할 수 있도록 설정함


FIFO Queue

  • FIFO Queue : 선입선출 Queue로써, 기존 Queue보다 순서가 보장되는 Queue -> Consumer가 polling할 경우, 입력 순서대로 메세지를 수신함
  • 순서를 보장하기 때문에 Queue처리량에 제한이 있음 (Batch성이 아닐 경우, 초당 300개 / Batch성일 경우, 초당 3,000개)
  • 순서를 보장하여 정확히 한 번만 보내기 때문에 중복을 제거할 수 있음
  • FIFO Queue의 이름은 뒤에 .fifo를 붙여줘야 함
  • Content-based deduplication : 5분 이내의 짧은 시간동안 동일 메세지가 두 번 발송되었을 경우, 중복을 방지해주는 기능
  • Message Deduplication ID : 같은 메세지 그룹 내 중복을 방지하기 위한 순서 key 값




SQS with Auto Scaling Group (ASG)

  • SQS Scaling




  • 사용 패턴
    : 광고 등의 이벤트 때문에 많은 양의 트래픽이 application에 몰리게 됨 -> 많은 처리량 때문에 DB로의 특정 트랜잭션에 에러가 발생되면 유실됨 -> 해결책으로 SQS를 사용할 수 있음 -> DB에 직접 붙는 것이 아닌 SQS에 메세지를 보내고, 다른 Consumer측 ASG가 이를 처리하게 하여 처리량 문제 해결 -> 많은 양의 트랜잭션을 처리할 수 있음 -> 트랜잭션 유실 우려 감소
  • 조건 : client에 DB저장에 대한 결과를 응답하지 않아도 되는 경우에만 사용 가능 -> SQS Queue에 메세지를 전송했다는 것으로 대체할 수 있음




Amazon SNS (Simple Notification Service)

  • Amazon SNS : 특정 서비스에서 여러 개의 타서비스로 연동이 필요할 때, 직접 붙는방식 대신 Pub/Sub 패턴을 이용하여 SNS Topic으로 메세지를 보내면, 해당 Topic을 구독하고있는 Consumer가 메세지를 수신하여 연동하게 하는 AWS 서비스 (SQS는 polling, SNS는 Topic 구독)




  • 특징
  1. event producer는 하나의 SNS Topic에만 메세지를 보냄
  2. event receiver(subscriber)는 구독하고있는 Topic의 메세지를 수신함
  3. Topic당 1,200만까지 구독자를 가질 수 있음
  4. 계정당 가질 수 있는 Topic의 갯수는 최대 100,000개


  • SNS에서 보낼 수 있는 Subscribers




  • SNS로 알림을 보낼 수 있는 주체




  • SNS 게시 방법 (SDK 활용)
  1. topic 생성
  2. 하나 이상의 구독자 생성
  3. topic에 메세지 발행


  • SNS 게시 방법 (mobile apps전용 SDK 활용)
  1. application 생성
  2. endpoint 생성
  3. endpoint에 메세지 발행
  4. 수신 가능 application : Google GCM, Apple APNS, Amazon ADM


  • SNS Security
  1. HTTPS로 메세지를 보내고 수신함 -> 전송중 암호화 (SSE-SNS, SSE-KMS 두 가지 key 지원)
  2. KMS키를 활용하여 전송중 암호화 가능
  3. client에서 직접 암호화/복호화 가능 -> SNS에서 기본적으로 지원하는 기능은 아님
  4. IAM 정책을 통해 SNS API로의 접근을 제어할 수 있음 (호출측? 제어)
  5. S3 Bucket Policy와 같은 SNS Access Policy도 있음 -> 교차계정 접근이나 다른 서비스에서의 접근을 허용하는 데 유용함 (응답측? 제어)


SNS + SQS : Fan Out

  • Fan Out 패턴 : 다수의 SQS가 SNS의 Topic을 Subscribe하여 SNS에 수신된 메세지를 받고, SQS가 application에 메세지를 전달하는 방식 -> 특정 application이 직접 다수의 SQS에 붙어 메세지를 전송하면 유실가능성이 있음




  • SQS의 기능 활용 가능 : 데이터 지속성, 지연처리, 작업재처리 등

  • SQS Policy에 SNS의 write가 가능하도록 설정 필요

  • 특정 Region의 SNS에서 다른 Region의 SQS에 메세지 전송 가능


  • S3 Events to multiple queues
    : 다수의 SQS로 S3 Event를 전송하는 방법




  • SNS to Amazon S3 through Kinesis Data Firehose
    : Kinesis Data Firehose를 활용해 SNS에서 S3로 데이터를 전송하는 방법




  • SNS FIFO
  1. SQS FIFO와 유사한 특징
  2. 순서보장
  3. 중복제거
  4. SQS Standard와 FIFO 모두 Subscriber가 될 수 있음 (다른 서비스는 불가)
  5. SQS FIFO와 동일 처리량


  • Message Filtering
    : SNS Topic 구독자들에게 전송할 message를 filtering하는 JSON 정책 -> Filtering 기능이 없으면 모든 구독자들에게 모든 메세지가 전송됨




Amazon Kinesis

  • Kinesis : 실시간 스트리밍 데이터(실시간으로 빠르게 생성되는 데이터, SNS/SQS와의 차이?)를 쉽게 수집하고 처리하여 분석할 수 있음 (application logs, metrics, iot 원격측정 데이터 등)


  • types

  1. Kinesis Data Streams : 데이터 스트림을 수집하여 처리
  2. Kinesis Data Firehose : 데이터 스트림을 AWS 내부나 외부의 데이터 저장소로 읽어들임
  3. Kinesis Data Analytics : SQL이나 Apache Flink를 활용하여 데이터 스트림을 분석
  4. Kinesis Video Streams : 비디오 스트림을 수집하고 처리하여 저장


Kinesis Data Streams

  1. 데이터를 프로비저닝할 Shard를 설정해야 함 (갯수도 미리 설정)
  2. Shard는 Stream의 용량 결정
  3. 데이터 생산자는 SDK를 활용하여 Data Stream에 데이터 전송
  4. Record : Data Stream에 전송되는 데이터의 단위
    • Partition Key : Record가 이용할 Shard를 결정
    • Data Blob : 데이터 자체, 최대 1MB
    • Sequence No : Shard내 Record의 위치
  5. Shard마다 초당 천 개의 메세지 or 1MB를 보낼 수 있음
  6. 데이터를 소비하는 방법
    • Shard마다 초당 2MB처리를 모든 Consumer가 공유
    • Consumer마다 Shard당 1초에 2MB씩 받을 수 있음
  7. 데이터는 생산하는 과정 in CLI
    • Data Stream의 이름, partition key, data 3개의 파라미터로 데이터 저장 요청 (인코딩 타입도 설정 가능)
  8. 데이터를 소비하는 과정 in CLI
    • Data Stream의 Shard 정보를 가져옴
    • Shard ID를 파라미터로 하여 읽을 데이터의 Shard Iterator를 가져옴 (shard-iterator-type 옵션을 통해 Iterator를 다르게 반환받을 수 있음)
    • 받은 Iterator로 해당 메세지 수신
    • 메세지와 함께 NextShardIterator를 수신하여 다음 요청 시, 다음 메세지부터 받을 수 있게 할 수 있음
  9. Shard Iterator를 활용하여 특정 부분부터 데이터를 읽을 수 있음




  • 특징
  1. 1일~1년까지의 보존기간
  2. 데이터를 보존기간내 다시 처리할 수 있음
  3. 데이터 임의 삭제 불가 -> 불변성
  4. partition key가 같으면 같은 Shard로 들어가고, 해당 key를 기반으로 데이터 정렬
  5. Producer는 SDK, Kinesis Producer Library (KPL), Kinesis Agent를 사용하여 데이터 전송
  6. Consumer는 SDK, Kinesis Client Library (KCL)를 사용하여 데이터 직접 수신 (Lambda나 Firehost같은 AWS 서비스도 활용 가능)


  • Capacity Modes
  1. Provisioned Mode
    • 위에서 설명된 특징 모두 적용 (처리량, API접근, Shard설정 등)
    • 한계 : Shard를 프로비저닝할 때마다 시간당 비용 부과
  2. On-Demand Mode
    • 프로비저닝/용량관리 필요하지 않음 (자동으로 용량 조정되기 때문)
    • 언제든 용량 조정 가능
    • 초당 4MB 또는 4천개의 Record 처리
    • 30일 동안 측정된 최대 처리량에 기반하여 자동으로 용량 조정
    • 시간당 스트림당 송수신 데이터량(GB단위)에 따라 비용 부과
    • 사전에 사용량을 예측할 수 없을 때 유용


  • Kinesis Data Streams Security
  1. IAM Policy를 활용하여 Shard 생성 및 데이터 수신 접근 권한을 제어
  2. HTTPS로 전송중 암호화
  3. 미사용 데이터는 KMS로 암호화
  4. Client 자체적으로 데이터 암/복호화 가능
  5. VPC Endpoint 사용 가능 -> 인터넷을 거치지않고 private subnet의 인스턴스에서 이용 가능
  6. 모든 API 요청은 CloudTail로 모니터링 가능




Kinesis Data Firehose

  • Kinesis Data Firehose : 데이터스트림을 여러 source로부터 받아서 처리하고 Batch로 저장하는 방법을 제시함




  • 데이터 제공 및 저장 유형
  1. Amazon Service
    • Amazon S3
    • Amazon Redshift (웨어하우징 DB) -> 먼저 S3에 저장된 데이터 대상으로 Firehose에서 COPY명령을 내리면, Redshift 저장소로 S3의 데이터가 COPY됨
    • Amazon OpenSearch
  2. third party
    • Datadog
    • Splunk
    • New Relic
    • mongoDB
  3. Custom API (with HTTP)


  • 특징
  1. 데이터 저장 이후에 optional하게 모든 데이터 or 실패한 데이터를 백업으로 S3에 저장할 수 있음
  2. 자동확장 및 서버리스 기능이 있기에 관리가 필요없는 서비스 (Data Stream과의 차별점)
  3. Firehost를 통하는 데이터 대상으로만 요금 부과
  4. 자체적으로 1MB단위로 데이터를 묶어서 저장하기 때문에 Near Realtime (완전 실시간x) -> 데이터가 완전히 묶이지 않을경우, 최소 60초의 지연 발생 -> Buffer 기능 활용
  5. 데이터 포맷, 변환, 압축 지원
  6. Lambda활용 데이터 변환 가능
  7. Firehose내 데이터 저장 불가 (Data Stream과의 차별점)
  8. Console의 Delivery Stream메뉴에서 설정 가능


  • Data Stream vs Data Firehose




Ordering Data

  • 사례 : 각각의 ID를 가진 트럭 100대가 도로위에 있고, 각 트럭은 GPS데이터를 AWS에 보내고 있다. AWS에서는 각 트럭의 데이터를 순서대로 받아 각 트럭의 이동을 정확하게 측정하려고 한다.


  • Kinesis
    : Partition key를 트럭의 ID로 활용 -> 같은 Partition key일 경우, 동일 Shard로 데이터 전송 -> 특정 트럭 데이터는 동일 Shard에서 계속 처리가 됨 (Kinesis가 트럭의 partition key와 shard id를 해싱하는 방식)




  • SQS
    : Group ID를 가지지 않는 한, SQS Queue의 message 소비는 순서가 보장됨




  • 특정 그룹마다 연관된 메세지를 보내고 싶을 경우, Group ID 활용 (Group ID in SQS = Partition key in Kinesis) -> Consumer는 자신과 연관된 Group ID의 메세지만 수신




  • Kinesis vs SQS (100개의 트럭, 5개의 Kinesis Shard, 1개의 SQS FIFO)
  1. Kinesis
    • Shard당 평균 20개의 트럭
    • 각 Shard당 순서가 보장된 데이터
    • 최대 5개의 Consumer
    • 초당 5MB 데이터 수신
  2. SQS
    • Only 1 SQS FIFO
    • 각 트럭 ID에 상응하는 Group ID 생성 -> 100개의 Group ID -> 최대 100개의 Consumer
    • 초당 300개의 메세지, 배치 사용 시 초당 3,000개의 메세지


SQS vs SNS vs Kinesis




Amazon MQ

  • 온프레미스에서 기존 application을 실행하는 경우, MQTT/AMQP/STOMP/Openwire/WSS protocol 사용

  • 온프레미스 application을 cloud로 마이그레이션 하는 경우, SNS/SQS를 사용하는 것이 아닌 기존 protocol을 사용하고 싶을 때 Amazon MQ를 사용하면 됨

  • Amazon MQ : 관리형 메세지 브로커 서비스 (for RabbitMQ, ActiveMQ) -> RabbitMQ, ActiveMQ를 cloud에서 사용할 수 있음

  • RabbitMQ, ActiveMQ : 개방형 프로토콜(ex. MQTT 등)로의 access 제공


  • 특징

  1. 확장성(scale)이 크지 않음
  2. 고가용성을 위해 Multi-AZ 구축 필요
  3. SQS/SNS의 일부 기능을 제공


  • 고가용성
    : 장애조치의 저장소로 활용하기 위해 두 가용영역에 걸쳐 EFS 구축

반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] Serverless (Lambda/DynamoDB/API Gateway)  (1) 2024.06.08
[AWS] AWS Container Service  (0) 2024.06.01
[AWS] AWS Storage  (0) 2024.05.26
[AWS] CloudFront and Global Accelerator  (0) 2024.05.26
[AWS] Amazon S3 (3)  (0) 2024.05.25

+ Recent posts