728x90
반응형




Serverless

  • Serverless : Server가 없는 것은 아니고 관리할 필요가 없음 (서버가 보이지 않거나 provisioning 필요x)


  • Serverless in AWS

  1. AWS Lambda
  2. DynamoDB
  3. AWS Cognito
  4. AWS API Gateway
  5. Amazon S3
  6. AWS SNS & SQS
  7. AWS Kinesis Data Firehose
  8. Aurora Serverless
  9. Step Functions
  10. Fargate




AWS Lambda

  • AWS Lambda : 관리할 서버가 필요없는 코드실행 서비스


  • 특징

  1. 최대 15분 실행
  2. 호출을 받을 때, 온디맨드로 실행
  3. 실행되는 동안에만 비용 청구
  4. 스케일링 자동화


  • 장점
  1. 쉬운 가격 책정 (요청 횟수 및 컴퓨팅 시간에 따라 책정 -> Lambda가 실행된 만큼)
  2. Free Tier에서는 요청 백만건과 40GB/s의 컴퓨팅 시간 제공
  3. 다양한 AWS 서비스와 연결 가능
  4. 많은 프로그래밍 언어와 호환 -> 오픈소스 덕분
    • Node.js
    • Python
    • Java
    • C#
    • Golang
    • Ruby
    • Lambda Container Image -> Container Image 자체가 Lambda의 API가 됨 (Container 상에서 Lambda API가 있어야하기 때문) -> Image에 Lambda API가 없는 경우, ECS나 Fargate에서 Container를 실행하는 것이 더 좋음
    • etc...
  5. CloudWatch와의 통합 쉬움
  6. 함수당 최대 10GB의 램을 제공받을 수 있음 -> RAM을 증가시키면, CPU 및 네트워크 성능도 같이 좋아짐


  • Lambda와의 통합 방식
  1. API Gateway : Lambda를 호출하는 Rest API 생성
  2. Kinesis : Lambda를 활용해 데이터 변환
  3. DynamoDB : DB상에 특정 이벤트가 생기면 Lambda를 실행하도록 트리거를 생성
  4. S3 : 언제든 Lambda를 실행할 수 있음
  5. CloudFront : Lambda 전용 CloudFront, Lambda@Edge
  6. CloudWatch / EventBridge : AWS 인프라이 어떤 일이 생기고 자동 대응을 하려고할 때 활용
  7. CloudWatch Logs : log를 스트리밍할 때 활용
  8. SNS : SNS로 알림을 보내고 SNS topic에 따른 처리를 진행할 때 활용
  9. SQS : SQS Queue 메세지 처리할 때 활용
  10. Cognito : DB를 활용하여 로그인할 때마다 응답 (인증처리)


  • Example1 : Thumbnail creation




  • Example2 : Serverless CRON Job
    : EC2 등에서 CRON을 활용할 때, 스케줄링이 안되는 시간대에는 낭비가 있어서 Lambda에 활용하는 것이 적절 -> CloudWatch에서 스케줄링 되도록 설정




  • Lambda Pricing
  1. 호출당 청구
    • 처음 백만건 요청은 무료
    • 이후 백만건 마다 20센트 과금
  2. 기간당 청구 (1ms 단위)
    • 한달간 첫 40만GB/s(=1GB RAM을 40만초 사용) 동안은 무료
    • 이후에는 60만GB/s당 1달러 과금


Lambda Limits

  • 실행한도
  1. Memory : 128MB ~ 10GB (1MB단위로 증가, CPU성능도 같이 증가)
  2. 실행시간 : 최대 900초 (15분)
  3. 환경변수 : 최대 4KB
  4. 임시공간 : 512MB ~ 10GB (/tmp, 파일처리 등과 같이 공간활용이 필요할 때 사용)
  5. 동시실행 : 1000개 (미리 예약하고 쓰는 것 권장)


  • 배포한도
  1. 압축 시 50MB, 비압축 시 250MB -> 한도 넘는 경우, /tmp공간 활용 필요
  2. 배포 후 시작할 때, 크기가 큰 파일이 있을 경우 /tmp 공간 활용 권장
  3. 환경변수 : 최대 4KB


Lambda SnapStart

  • Lambda SnapStart : Lambda SnapStart이 활성화 되어 있을 경우, Lambda Function이 미리 초기화된 상태에서 호출 -> 성능 향상

  • Java11 이상에서 실행되는 Lambda Function의 성능을 추가 비용없이 10배 높여줌

  • 원리 : Lambda Function이 실행되면 메모리와 초기화된 Lambda Function 디스크 상태의 SnapShot 생성됨 -> 생성된 SnapShot은 캐싱되어 다음 Lambda Function 실행 때 활용됨 -> SnapStart


  • LifeCycle




Edge Function

  • Edge Function : app에 도달하기 전, Edge에서 특정 logic을 실행하는 Function -> 지연시간 최소화

  • Edge Function을 사용하면 전역으로 배포되기 때문에 서버관리가 필요하지 않음

  • Use Case : CrontFront의 CDN 콘텐츠 커스터마이징


  • CloudFront 함수의 종류

  1. CloudFront Functions
  2. Lambda@Edge


  • Use Cases
  1. Dynamic Web Application
  2. 검색 엔진 최적화 (SEO)
  3. Origin-DataCenter간 지능형 라우팅
  4. 엣지에서의 실시간 이미지 변환
  5. A/B Test
  6. 사용자 인증 및 인가
  7. 사용자 우선순위 지정
  8. 사용자 추적 및 분석
  9. Website Security and Privacy


  • CloudFront Functions
  1. javascript로 작성된 경량함수
  2. 확장상이 높고 지연 시간에 민감한 CDN 커스터마이징에 활용
  3. 최대 실행시간은 1ms 미만 (very simple code), 초당 백만 개의 요청 처리
  4. 고성능/고확장성, viewer의 요청과 응답을 수정할 때에만 사용
  5. 모든 코드가 CloudFront에서 직접 관리
  6. Use Cases
    • 캐시 key 정규화 (요청의 attribute를 변환하여 key 변환)
    • HTTP 헤더 조작
    • URL를 다시 쓰거나 redirect
    • 요청 인증 및 인가 (ex. JWT 생성 및 검증 등)


  • Lambda@Edge
  1. Node.JS나 Python으로 작성
  2. 초당 수천 개의 요청 처리
  3. 모든 CloudFront 요청 및 응답을 변경할 수 있음 -> Origin 요청/응답도 수정 가능
  4. us-east-1 region에만 코드 작성 가능 (CloudFront 배포를 관리하는 region과 같은 region -> 함수를 작성하면 CloudFront가 모든 location에 해당 함수 복제)
  5. 최대 실행시간은 5~10초
  6. Use Cases
    • 여러 라이브러리 로드
    • 타사 라이브러리 의존
    • SDK로 다른 AWS서비스에 접근
    • 네트워크를 통해 외부 서비스에서의 데이터 처리
    • 파일 시스템 및 HTTP요청 body에도 접근 가능




Lambda Network

  • 기본적으로 Lambda 함수는 VPC 외부에서 시작 -> Lambda는 VPC내부에서 실행되는 AWS 서비스에 접근 불가 -> 인터넷상의 public API 접근 가능 -> VPC내 접근을 위해 VPC에서 Lambda 함수 시작 필요 -> VPC 생성 후 해당 서브넷을 Lambda에 할당하고 보안 그룹 추가 -> 서브넷에 생성된 ENI(Elastic Network Interface)를 통해 VPC 내부 서비스에 접근 가능




  • RDS Proxy
  1. RDS에 Lambda가 직접 접근하게되면, Lambda가 Scale-Out 되었을 때 RDS에 큰 부하를 줄 수 있음 -> RDS Proxy 활용 필요
  2. DB 연결 pool을 공유함으로써 확장성 향상
  3. 장애가 발생할 경우에 가용성이 향상되고 연결이 보존됨
  4. RDS Proxy에서 IAM인증을 강화하여 보안을 높일 수 있고, credential을 Sercets Manager 안에서 관리할 수 있음
  5. RDS Proxy를 통한 접근을 위해 Lambda는 반드시 동일 VPC내부에 있어야 함 (RDS Proxy는 public에서 접근 불가)




RDS/Aurora에서의 Lambda 호출

  • RDS/Aurora에서의 Lambda 호출 : DB에서 일어나는 데이터 이벤트를 처리할 수 있음
  • RDS for PostgreSQL/Aurora MySQL에서 지원
  • AWS Console 설정이 아님
  • RDS DB로부터 Lambda로 오는 트래픽 허용 필요 -> Lambda가 public일 경우, NAT GW/VPC Endpoint 등 사용할 수 있음
  • RDS가 Lambda호출할 권한 필요 (IAM 정책 조정 필요)




  • RDS Event Notifications
  1. AWS 안에서 DB에 대한 정보(ex. created, stopped, start, etc...)를 알림 (메타데이터?)
  2. DB안의 데이터는 포함하지 않음 (DB 컬럼정보x) -> DB 컬럼 데이터에 관한 정보는 Lambda를 통해야 함
  3. 알림 전달 최대 시간 : 5분
  4. SNS 또는 EventBridge에 전달 가능




DynamoDB




  • 특징
  1. 완전 관리형 DB
  2. 다중 가용영역에 복제되므로 가용성 좋음
  3. AWS 독점 NoSQL
  4. 트랜잭션 지원 기능 있음
  5. DB가 내부에서 분산되기 때문에 방대한 workload에 적용 가능
  6. 초당 수백만 개의 요청 처리, 수조개의 rows, 수백 TB 스토리지 -> 성능 좋고, 일관성 높음
  7. 보안 관련 기능은 IAM 활용
  8. 비용이 적게 들고, 오토 스케일링 기능이 있음
  9. 유지관리나 패치가 필요하지 않음
  10. 테이블 클래스
    • Standard : 데이터가 빈번함
    • IA : 데이터가 빈번하지 않음


  • 기초
  1. Aurora나 RDS와 달리 DB를 별도 생성하지 않아도 됨 -> DynamoDB는 DB가 이미 존재함
  2. 테이블로 구성된 DB
  3. PK는 테이블 생성 시, 결정됨
  4. 테이블마다 rows를 무한히 추가할 수 있음
  5. 테이블당 attribute는 열로써 표시됨 -> null이 될 수도 있음
  6. 열을 언제든 쉽게 추가할 수 있음 -> 각 row에서 attribute 형식이 달라도 됨
  7. row의 최대 크기는 400KB
  8. 다양한 데이터 형식 지원
    • Scalar : 문자열, 숫자, 바이너리, 불리언, null
    • Document : List, Map
    • Set : String Set, Number Set, Binary Set
      9. DynamoDB는 스키마를 빠르게 적용해야할 때 유용


  • Read/Write Capacity Modes
  1. Provisioned Mode (default)
    • 사전에 용량을 Provisioning
    • Provisioning된 RCU(Read Capacity Unit)/WCR(Write Capacity Unit)만큼의 비용 지불
    • 오토 스케일링 기능이 있어 테이블에 대한 트래픽에 따라 RCU/WCR 조절 가능
    • 스키마가 서서히 적용되고, 비용 절감이 필요할 때 활용
    • 대충 Workload의 범위 예측 가능 -> 오토 스케일링 기능으로 조절 하면됨
  2. On-Demand Mode
    • 읽기/쓰기 용량이 Workload에 따라 자동 확장
    • RCU/WCR 개념이 없음 (미리 Provisioning 하지 않기 때문)
    • 사용한 만큼의 비용 지불
    • Workload를 예측할 수 없거나 급격히 증가하는 경우에 활용
    • Workload 범위도 예측이 안될 경우




  • DynamoDB Accelerator (DAX)
  1. 완전 관리형 seamless in-memory cache
  2. 고가용성
  3. 읽기 작업이 많을 때, DAX 클러스터를 생성하고 데이터를 캐싱함
  4. ms단위의 저지연 시간의 읽기 성능 제공
  5. 기존 DynamoDB API와 호환 -> app logic 변경이 필요하지 않음
  6. TTL은 default로 5분으로 설정되어있으나 변경 가능
  7. ElastiCache가 아닌 DAX를 사용하는 이유
    • 개별 객체에 대한 cache 처리에 유용 -> 집계 결과 처리에는 ElastiCache가 더 좋음
    • 쿼리 및 스캔 cache 처리에 유용 -> 대용량의 연산을 저장할 때 좋음
    • DynamoDB 앞에 배치




  • DynamoDB Stream Processing
  1. 테이블에 대한 수정사항을 Stream으로 생성할 수 있음 -> 변경사항에 실시간으로 반응
  2. Use cases
    • 사용자 테이블에 새로운 사용자가 등록되었을 때, 환영 이메일 전송
    • 실시간 사용 분석
    • 파생 테이블 insert
    • region간 데이터 복제
    • 테이블 변경사항에 대한 Lambda 함수 실행
  3. Stream 처리의 두 가지 유형
    • DynamoDB Streams : 보존기간 24시간, 소비자 수 제한, Lambda 트리거와 주로 사용, 자체적 읽기를 위해 DynamoDB Stream Kinesis 어댑터 사용
    • Kinesis Data Streams : 보존기간 1년, 더 많은 소비자 수, 데이터 처리 방법이 다양 (Lambda, Kinesis Data Analytics, Kinesis Data Firehost, Glue Streaming, etc...)




  • DynamoDB Global Tables
  1. 여러 region간 복제 가능 테이블
  2. 여러 region중 하나의 region의 테이블에 작업을 하면, 다른 region에 복제되어 있는 테이블에도 자동 동기화
  3. 다수의 region간 복제본을 통해 DynamoDB로의 저지연 접근을 가능하게 함
  4. 다중 활성 복제 가능 (Active-Active)
  5. 모든 region에서 테이블에 데이터를 읽고 쓸 수 있음
  6. DynamoDB Stream 기능 활성화 필요




  • DynamoDB Time To Live (TTL)
  1. 시간이 지나면 자동으로 item(=row)를 삭제하는 기능
  2. row의 attributes중 하나
  3. 현재 시간이 TTL상의 시간을 초과하면, 해당 item 삭제 처리


  • Backups for disaster recovery
  1. PITR (point-int-time recovery)를 활용하여 지속적 백업 가능
    • 활성화를 선택하면 35일 동안 지속
    • 백업기간 내 언제든 복구 수행 가능
    • 복구를 진행할 경우, 새로운 테이블 생성
  2. On-demand backups
    • 데이터를 직접 삭제할 때까지 보존
    • 테이블의 성능이나 지연시간에 영향을 주지 않음
    • 백업 관리 서비스로 AWS Backup이 있음 -> 해당 백업 방식에 lifecycle 홞성화 가능, region간 백업 복제 가능 -> 새로운 테이블 생성


  • Amazon S3와의 통합
  1. S3에 DynamoDB 테이블을 내보내기 위해 PITR 활성화 필수 -> 35일 내에 내보내기 가능
  2. 쿼리 실행 시, AWS Athena 서비스 활용
  3. 테이블을 내보내도 테이블의 읽기 용량이나 성능에 영향이 없음
  4. S3 내보내기를 통한 데이터 분석 가능
  5. 감사 목적의 snapshot 확보 가능
  6. S3에서 다시 DynamoDB로 가져올 때 데이터의 대규모 변경 가능
  7. 내보낼 때, DynamoDB JSON이나 ION형식 이용
  8. S3에서 테이블을 가져올 때에는 CSV/JSON/ION형식의 객체를 기반으로 새로운 DynamoDB 테이블을 생성하게 됨 -> 쓰기 용량을 소비하지 않고 새로운 테이블 생성
  9. 가져올 때 발생한 오류는 모두 CloudWatch Logs에 기록


API Gateway

  • Client에서도 Lambda를 호출하려면 IAM권한 필요
  • ALB와 Lambda의 조합을 활용하게 되면 HTTP endpoint가 노출됨 (서버리스가 아님)




  • API Gateway : Client가 Lambda를 호출할 수 있도록 REST API를 제공하는 서버리스 서비스, Lambda 함수에 요청을 Proxy함
  • 사용 이유
  1. 인증 기능 제공
  2. 사용량 계획 기능 제공
  3. 개발 환경 기능 제공


  • 특징
  1. Lambda와 결합할 경우, 완전 서버리스
  2. WebSocket 프로토콜 지원 -> 두 가지 방법의 실시간 스트리밍 가능
  3. API Versioning을 핸들링 함 (Version 변경이 있어도 client와의 연결이 끊기지 않음)
  4. dev, test, prod 등 여러 환경 지원
  5. 여러 보안 기능 제공
  6. API key 생성 -> client의 요청 조절
  7. Swagger나 기타 Open API의 공통 표준을 가져올 수 있음 -> 내보낼 수도 있음
  8. 요청 및 응답의 유효성 검증
  9. SDK/API 스펙 생성
  10. API 응답 캐싱


  • 통합
  1. Lambda Function : 서버리스로 Lambda를 client에게 노출시키는 가장 일반적인 방법
  2. HTTP : 클라우드 환경 및 온프레미스 환경의 백엔드를 HTTP로 노출시킬 수 있음 -> 다양한 공통 기능 추가 (ex. 인증, 캐싱 등)
  3. AWS Service : 어떤 AWS API도 노출 가능, Step Function workflow 시작, SQS로 메세지 전송


  • Use Case (Kinesis Data Streams)
    : 사용자가 Kinesis Data Streams에 데이터를 전송할 수는 있지만 AWS 자격증명은 가질 수 없도록 설정




  • Endpoint Types (API Gateway 배포방법)
  1. Edge-Optimized (default)
    • global client용
    • global하게 접근할 수 있음
    • 모든 요청이 CloudFront edge location을 통해 들어옴 -> 지연시간 개선
    • API Gateway는 생성된 region에 위치
  2. Regional
    • CloudFront를 원하지 않을 때 활용
    • API Gateway와 동일한 region의 사용자만 접근 가능
    • 별도로 CloudFront를 배포하여 결합 가능 -> Edge-Optimized 배포와 동일한 결과이지만, CloudFront에 대한 더 많은 권한을 가질 수 있음
  3. Private
    • not Public
    • 배포된 VPC내에서만 접근 가능 (ENI와 같은 VPC 인터페이스 활용)
    • API Gateway로의 접근을 정의할 때 리소스 정책 사용


  • Security
  1. IAM Role을 사용하여 사용자 식별 -> API Gateway에 접근할 때, IAM Role 사용 필요
  2. 외부 사용자에 대한 보안 조치로 Amazon Cognito 사용 가능
  3. 자체로직(ex. Lambda Function)을 구현할 수도 있음 -> Custom Authorizer (사용자 지정 권한 부여자) 활용
  4. HTTPS의 CDN(Custom Domain Name)을 ACM(AWS Certificate Manager)와 통합 가능
    • Edge-Optimized endpoint를 사용할 경우, 인증서는 us-east-1에 있어야 함
    • region endpoint를 사용할 경우, 인증서는 API Gateway와 동일한 region에 있어야 함
  5. Route 53에 CNAME이나 A-alias record를 설정하여 도메인이 API Gateway를 가리키도록 해야 함


Step Functions

  • Step Functions : Serverless Workflow를 시각적으로 구성할 수 있는 기능, 주로 Lambda 함수를 설계할 때 활용




  • Lambda 함수 뿐만 아니라 EC2 연동, ECS, 온프레미스 서버, API Gateway, SQS 등의 workflow 구조를 표현할 때에도 활용
  • Workflow에 사람이 개입하여 승인해야 진행되는 단계를 설정할 수 있음


Amazon Cognito

  • Amazon Cognito : 사용자에게 웹 및 모바일 앱과 상호작용할 수 있는 자격증명을 제공하는 서비스, 익명의 사용자에게 자격증명을 부여하여 해당 사용자를 인식(Cognito)하게 됨


  • IAM vs Cognito : Cognito는 AWS 외부의 app 사용자를 대상으로 함 (keywords : 수백명의 사용자, 모바일 사용자, SAML 인증)


  • Cognito User Pools (CUP)

  1. 웹 및 모바일 앱을 대상으로 하는 서버리스 사용자 DB
  2. 이름/이메일/비밀번호 조합으로 간단한 로그인 절차 수립 가능
  3. 비밀번호 재설정 기능
  4. 이메일/폰번호 유효성 검증
  5. Multi-factor Authentication (MFA) 가능
  6. Facebook, Google, SAML 등 통합 가능 (Federated Identities)
  7. API Gateway 및 ALB와 통합 가능 -> 유효성 검증 책임을 API Gateway나 ALB에 넘김
  8. app 사용자에게 가입기능 제공




  • Cognito Identity Pools
  1. 사용자에게 임시 AWS Identity를 부여하여 AWS 계정에 직접 접근 -> 일부 AWS 서비스에 직접 접근 (API Gateway, ALB 직접 접근x)
  2. Cognito User Pools와 통합 가능
  3. 타사 로그인 활용 가능 (ex. google 등)
  4. API Gateway를 통해 AWS 서비스에 접근 가능
  5. 자격증명에 적용되는 IAM 정책이 Cognito에 사전 정의되어 있음
  6. User_id 기반으로 사용자를 정의하여 세분화된 제어 가능




  • Low Level Security
    : DynamoDB Leading key와 Cognito 자격증명 user_id와 같아야 함. -> 해당 조건을 충족시킨 사용자만 DynamoDB 테이블에 접근 가능

반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] CloudWatch and CloudTail  (1) 2024.06.11
[AWS] AWS Database  (0) 2024.06.08
[AWS] AWS Container Service  (0) 2024.06.01
[AWS] SQS, SNS, Kinesis, Active MQ  (0) 2024.06.01
[AWS] AWS Storage  (0) 2024.05.26
728x90
반응형




Docker Containers Management on AWS

  • Amazon Elastic Container Service (Amazon ECS) : Amazon의 container 플랫폼
  • Amazon Elastic Kubernetes Service (Amazon EKS) : Amazon에서 관리되는 Kubernetes
  • Amazon Fargate : Amazon의 서버리스 Container 플랫폼, ECS/EKS와 함께 동작 가능
  • Amazon ECR : Container Image 저장


Amazon ECS

  • AWS에서 docker container 실행 = ECS Cluster에서 ECS task 실행 (task = container, 생성된 task로 서비스를 배포하는 작업이 추가로 진행되어야 함 -> cluster에서 server 생성 후 맞는 type을 선택하고 Family로 사전 생성한 task를 선택하면 됨 -> 사전에 서비스 배포가 되었기 때문에 해당 task의 갯수가 늘어나면, container의 갯수도 늘어나게됨)


  • ECS Cluster의 Launch Type (task 생성 시, 선택)

  1. EC2 인스턴스
    • infra를 직접 provisioning하고 유지해야함
    • EC2 인스턴스는 각각 ECS Agent를 실행해야 함 -> ECS 클러스터 등록
    • ECS task가 실행되면 AWS가 container를 실행하거나 중단시킴 -> 새로운 Docker Container가 생성되면 임의로 ECS Cluster에 등록된 EC2 인스턴스를 선택하여 배포함




  1. Fargate
    • AWS에서 docker container를 실행하는데, infra를 provisioning 하지않아서 관리할 EC2인스턴스는 없음 -> 서버리스 (서버를 관리하지 않아서)
    • ECS task 정의만 생성하면 필요한 CPU/RAM에 맞게 ECS task를 AWS가 대신 실행 (관리자는 어느 서버에서 실행되는지 모름)
    • 확장이 필요하면 ECS task만 더 생성하면 됨




  • IAM Roles
  1. EC2 인스턴스 profile
    • EC2 type에만 활용됨
    • ECS Agent만 EC2 인스턴스의 profile을 관리하고, 이를 활용하여 ECS API 호출 -> ECS 서비스가 CloudWatch log에 API 호출하여 Container log를 보냄 -> ECR로부터 docker image 수신
    • Secret Manager나 SSM Parameter Store에서 민감 데이터를 참고하기도 함
  2. ECS Task Role
    • ECS task는 Task Role을 가짐
    • EC2 및 Fargate type에 모두 활용됨
    • 만약 두 개의 task가 있다면, 각각에 특정 Role을 만들 수 있음
    • ECS task role은 각자 다른 ECS 서비스를 이용할 수 있음 (ex. task A는 S3 API 호출, task B는 DynamoDB에 API 호출)
    • task를 정의하여 생성할 때, Role을 정의할 수 있음




  • Load Balancer Integrations
  1. EC2 및 Fargate type 모두 가능
  2. ECS 클러스터 내부에 많은 ECS task가 실행됨
  3. 많은 ECS task는 HTTP/HTTPS endpoint로 활용되길 원함 -> ALB 활용 -> 사용자는 ALB를 경유하여 ECS task에 연결될 수 있음
  4. ALB대신 NLB가 사용될 수도 있는데, 해당 경우는 처리량이 많거나 높은 성능이 요구될 때 권장 (AWS Private Link와 사용할 때 권장)




  • Data Volumes (EFS)
  1. EC2 task에 File System을 마운트하여 데이터 공유 원함 -> EFS 활용
  2. EFS는 EC2 및 Fargate 모두에 호환됨
  3. EFS를 마운트한다면, 가용영역이 달라도 데이터를 공유할 수 있음 (EFS의 특징)
  4. EFS를 활용하여 다른 task와도 연결 가능
  5. EFS내부의 Fargate를 쓸 때 좋음 (EFS도 서버리스이기 때문)
  6. Use case : Multi-AZ에 걸쳐 배포된 Container의 영구적인 Storage
  7. Amazon S3는 ECS에 의해 마운트될 수 없음




ECS Auto Scaling

  • ECS Auto Scaling : ECS task의 수를 자동으로 늘려주고 줄여줌


  • Scaled Metrics

  1. ECS의 CPU 사용률
  2. ECS의 RAM 사용률
  3. ALB의 target당 요청 수


  • Scaling Types
  1. Target Tracking : CloudWatch의 특정 값 기준
  2. Step Scaling : CloudWatch의 특정 알람 기반
  3. Scheduled Scaling : 트래픽의 변화가 예측되는 정해진 시간 기준


  • ECS Auto Scaling (task level) != EC2 Auto Scaling (EC2 Instance level) -> EC2 Auto Scaling 기능이 없다면, Fargate로 전환 후 ECS Auto Scaling을 쓰는 것이 좋음 -> 서버리스


  • EC2 Instance Auto Scaling 방법 (launch type이 EC2일 때)

  1. EC2 Auto Scaling Group
  2. ECS Cluster Capacity Provider : 새 task를 실행할 용량이 부족하면, 자동으로 ASG 확장 (with ASG, ECS Cluster CPU/RAM사용량 기반)


  • Example : ECS Cluster Capacity Provider를 활용하는 Service의 트래픽이 증가할 경우, CloudWatch가 CPU사용량 증가를 인식하고 Alarm을 발생시킴 -> CloudWatch Alarm은 scale out 요청을 하게되고, Capacity Provider는 희망용량을 증가시켜 task가 자동으로 증가됨 -> task가 증가됨에 따라 EC2인스턴스가 증가됨




  • Event Bridge에 의한 ECS
    : EventBridge는 수신된 Event를 전달하는 역할 -> Event를 받으면 ECS task를 실행시키기 위한 rule이 설정되어 있을 경우, ECS task 실행에 대한 요청을 ECS Cluster에 보냄 -> ECS task Role에 따라 처리




  • Event Bridge Schedule에 의한 ECS
    : 1시간마다 스케줄링되는 EventBridge에 의해 특정 ECS Task가 실행됨 -> 생성되는 task Role에 맞는 작업 진행 -> 서버리스




  • SQS Queue에 의한 ECS
    : 서비스가 SQS Queue로부터 메세지를 직접 가져와 처리




  • Intercept StoppedTasks using EventBridge
    : EventBridge를 통한 ECS Cluster내에서 Event를 가로채는 방식 -> ECS Cluster내에서 task에 관한 Event가 발생될 경우, EventBridge에 트리거됨 (json형태의 데이터 전송) -> 해당 트리거를 이용하여 SNS topic에 메세지를 전송하고, 관리자에게 메일을 전송하는 등의 case에 활용될 수 있음




Amazon ECR

  • Amazon ECR : Elastic Container Registry, AWS에 Docker image를 저장하고 관리하는데 사용


  • 계정에 한해 image를 비공개로 저장 -> 여러 계정으로 권한 확대할 수 있음

  • public으로 image를 저장할 수도 있음

  • image는 background에서 S3에 저장됨

  • ECS Cluster내 EC2 IAM Role을 통해 ECR로부터 Docker image를 가져올 수 있음 (ECR에 대한 모든 접근은 IAM이 보호)

  • image의 단순 저장뿐만 아니라 image 취약점 스캐닝, versioning, tag 및 life cycle 확인 지원




Amazon EKS

  • Amazon EKS : Elastic Kubernetes Service, AWS에서 kubernetes를 실행할 수 있는 service


  • Amazon ECS와 비슷하지만, 사용하는 API가 다름

  • EKS Launch Modes

  1. EC2 Instance : EC2에 Worker Node 배포
  2. Fargate : EKS Cluster에 서버리스 Container 배포


  • 특징
  1. kuberentes는 모든 Cloud에서 지원 (Azure, Google Cloud 등) -> 클라우드간 마이그레이션에 유용
  2. Use Case : 회사가 온프레미스나 클라우드에서 Kubernetes or Kuberentes API를 사용중일 때, 해당 Kubernetes를 관리하기 위해 Amazon EKS를 활용




  • Node Types
  1. Managed Node Groups : AWS로 노드(EC2 Instance)를 생성하고 관리
    • 노드는 EKS로 관리되는 ASG의 일부
    • 온디맨드 인스턴스와 Spot 인스턴스를 지원
  2. Self-Managed Nodes : 노드를 직접 생성하고 EKS Cluster에 등록하여 Cluster내 ASG에 의해 관리
    • 사용자 지정사항 or 제어대상이 많은 경우 사용
    • 최적화된 Amazon EKS AMI를 사용하면 부팅시간을 줄일 수 있음
    • 온디맨드 인스턴스와 Spot 인스턴스를 지원
  3. Fargate
    • 노드를 원하지 않는 경우 사용
    • 유지관리 필요 없음


  • Data Volumes
  1. EKS Cluster에 Storage Class manifest를 지정해야 함
  2. CSI (Container Storage Interface)라는 규격의 드라이버 사용 -> Cluster 설정의 Add-ons에서 해당 드라이버 설정 필요
  3. Amazon EBS, Fargate모드를 지원하는 유일한 유형인 Amazon EKS, Amazon FSx for Lustre, Amazon FSx NetAPP ONTAP 지원


AWS App Runner

  • AWS App Runner : 인프라나 소스코드를 알 필요 없이 누구나 AWS에 배포할 수 있음

  • 완전 관리형 서비스로 서비스 규모에 따라 Web Application, API 배포를 지원


  • 배포 방법

  1. Docker image or Source code를 가지고 원하는 구성 설정 -> CPU/RAM 설정, ASG여부 등
  2. 설정을 기반으로 Container에 자동 배포
  3. URL이 생성되면 해당 URL로 접근 가능




  • 장점
  1. Auto Scaling 가능
  2. 고가용성
  3. Load Balancing
  4. 암호화 기능 지원
  5. custom VPC 배포 지원
  6. DB, 캐시, 메세징 서비스 등에 연결 가능


  • Use case : 웹앱 application의 신속한 배포가 필요한 경우
반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] AWS Database  (0) 2024.06.08
[AWS] Serverless (Lambda/DynamoDB/API Gateway)  (1) 2024.06.08
[AWS] SQS, SNS, Kinesis, Active MQ  (0) 2024.06.01
[AWS] AWS Storage  (0) 2024.05.26
[AWS] CloudFront and Global Accelerator  (0) 2024.05.26
728x90
반응형




Amazon SQS

  • SQS Queue : Producer와 Consumer를 분리하는 buffer역할을 하는 메세지 저장소(?)

  • Producer : SQS Queue에 메세지(ex. 명령 등)를 보내는 생산자

  • Comsumer : SQS Queue에 있는 메세지를 수신하는 대상, polling 방식으로 Queue로부터 메세지를 가져옴 (Queue에게 수신자 대상의 메세지가 있는지 확인 후, 있으면 가져옴) -> 메세지 수신 후, Queue에서 해당 메세지 삭제


  • Standard Queue

  1. 가장 오래된 Queue
  2. 완전 관리형 for decouple application
  3. 무제한 처리량, 대기열 메세지 수도 제한 없음
  4. 메세지는 수명이 짧음 -> 메세지는 기본적으로 Queue에 4일 동안 저장되고, 최대 14일까지도 유지됨 -> Consumer가 메세지 수명 기간안에 수신해야 함
  5. 저지연 성능 -> 메세지 송신/수신 시간이 매우 짧음
  6. 메세지 크기는 작아야 함 (< 256KB)
  7. 동일 메세지가 여러번 송/수신 되는 경우가 있음 (중복 메세지 있을 수 있음)
  8. can have out of order messages (best effort ordering) -> 메세지 수신 순서를 정할 수 있다는 말인 듯?


  • Producing Messages
  1. Producer(application)는 SQS로 메세지를 보내는 SDK를 통해 SQS Queue에 메세지를 보낼 수 있음
  2. use case : 어떤 처리를 위한 오더 메세지를 보낼 수 있음 (처리에 필요한 값과 함께)




  • Consuming Messages
  1. Consumer는 application으로 EC2 인스턴스나 온프레미스, Lambda가 될 수 있음
  2. polling방식으로 메세지 수신 -> consumer가 SQS Queue에 자신에게 온 메세지가 있는지 질의
  3. 한번에 최대 10개까지의 메세지 수신
  4. consumer가 메세지를 수신한 후, DB에 메세지의 값을 저장하는 등 처리를 완료하면 SQS Queue상의 해당 메세지를 삭제해야할 의무가 있음 (SQS SDK의 DeleteMessage API 활용)
  5. Consumer를 여러개 가질 수 있음 -> 메세지를 먼저 수신한 Consumer가 메세지를 빠르게 처리하여 삭제하는 것이 아니라면 다수의 Consumer들이 메세지를 수신할 수 있음 -> 메세지 수신 순서를 정해야 함
  6. Consumer를 늘리는 방식으로 처리량을 늘릴 수 있음




  • SQS with Auto Scaling Group (ASG)
    : Queue의 길이(ApproximateNumberOfMessages, CloudWatch 지표 : Queue내 메세지 갯수)가 특정 기준을 넘으면 CloudWatch Alarm이 발생하도록 할 수 있음 -> 더 많은 양의 메세지 처리가 필요하기 때문에 ASG에 Alarm을 보내어 Scale-Out이 되도록 함 -> SQS의 메세지 처리량 증가 -> 축소도 가능




  • SQS to decouple between application tiers
    : front에서 S3로 video처리를 바로 요청하여 받으면 느릴 수 있음 -> 아래 사진의 SQS + ASG 구조 적용, 더 좋은 성능의 Back 서버를 경유하게 하여 Video 처리 진행 -> 성능 개선


  • SQS Security

  1. HTTPS로 메세지를 보내고 수신함 -> 전송중 암호화 (SSE-SQS, SSE-KMS 두 가지 key 지원)
  2. KMS키를 활용하여 전송중 암호화 가능
  3. client에서 직접 암호화/복호화 가능 -> SQS에서 기본적으로 지원하는 기능은 아님
  4. IAM 정책을 통해 SQS API로의 접근을 제어할 수 있음 (호출측? 제어)
  5. S3 Bucket Policy와 같은 SQS Access Policy도 있음 -> 교차계정 접근이나 다른 서비스에서의 접근을 허용하는 데 유용함 (응답측? 제어)


Message Visibility Timeout

  • Message Visibility Timeout : Consumer가 Queue의 Message받고 처리하기 시작했을 때부터 Visibility Timeout 시간동안 다른 Consumer가 Message를 수신할 수 없음 -> 다른 Consumer는 해당 시간동안 Message가 보이지 않음 (default : 30s)
  • Visibility Timeout 시간이 지나고 Message가 삭제되지 않으면 다른 Consumer가 해당 Message를 수신하여 처리할 수 있게됨 -> 해당 시간 동안 처리되지 않으면 동일한 Consumer가 동일한 Message를 수신하거나, 다른 Consumer가 수신할 수 있게됨
  • ChangeMessageVisibility API를 호출하여 더 많은 Visibility 시간을 확보할 수 있음




Long Polling

  • Long Polling : Consumer가 Queue에 메세지를 요청했을 때, 메세지가 없을 경우 메세지가 Queue에 생성될 때까지 기다리는 것

  • Long Polling시간은 1s~20s사이로 설정 가능


  • 활용이유

  1. 지연시간과 API호출을 줄이기 위해 활용
  2. Long Polling중 메세지가 Queue에 수신되면, 해당 메세지를 Consumer가 저지연시간으로 빠르게 읽을 수 있음


  • 활용방법
  1. WaitTimeSeconds를 지정하여 Consumer가 스스로 Long Polling 진행
  2. Queue레벨에서 Polling하는 아무 소비자가 Long Polling 진행할 수 있도록 설정함


FIFO Queue

  • FIFO Queue : 선입선출 Queue로써, 기존 Queue보다 순서가 보장되는 Queue -> Consumer가 polling할 경우, 입력 순서대로 메세지를 수신함
  • 순서를 보장하기 때문에 Queue처리량에 제한이 있음 (Batch성이 아닐 경우, 초당 300개 / Batch성일 경우, 초당 3,000개)
  • 순서를 보장하여 정확히 한 번만 보내기 때문에 중복을 제거할 수 있음
  • FIFO Queue의 이름은 뒤에 .fifo를 붙여줘야 함
  • Content-based deduplication : 5분 이내의 짧은 시간동안 동일 메세지가 두 번 발송되었을 경우, 중복을 방지해주는 기능
  • Message Deduplication ID : 같은 메세지 그룹 내 중복을 방지하기 위한 순서 key 값




SQS with Auto Scaling Group (ASG)

  • SQS Scaling




  • 사용 패턴
    : 광고 등의 이벤트 때문에 많은 양의 트래픽이 application에 몰리게 됨 -> 많은 처리량 때문에 DB로의 특정 트랜잭션에 에러가 발생되면 유실됨 -> 해결책으로 SQS를 사용할 수 있음 -> DB에 직접 붙는 것이 아닌 SQS에 메세지를 보내고, 다른 Consumer측 ASG가 이를 처리하게 하여 처리량 문제 해결 -> 많은 양의 트랜잭션을 처리할 수 있음 -> 트랜잭션 유실 우려 감소
  • 조건 : client에 DB저장에 대한 결과를 응답하지 않아도 되는 경우에만 사용 가능 -> SQS Queue에 메세지를 전송했다는 것으로 대체할 수 있음




Amazon SNS (Simple Notification Service)

  • Amazon SNS : 특정 서비스에서 여러 개의 타서비스로 연동이 필요할 때, 직접 붙는방식 대신 Pub/Sub 패턴을 이용하여 SNS Topic으로 메세지를 보내면, 해당 Topic을 구독하고있는 Consumer가 메세지를 수신하여 연동하게 하는 AWS 서비스 (SQS는 polling, SNS는 Topic 구독)




  • 특징
  1. event producer는 하나의 SNS Topic에만 메세지를 보냄
  2. event receiver(subscriber)는 구독하고있는 Topic의 메세지를 수신함
  3. Topic당 1,200만까지 구독자를 가질 수 있음
  4. 계정당 가질 수 있는 Topic의 갯수는 최대 100,000개


  • SNS에서 보낼 수 있는 Subscribers




  • SNS로 알림을 보낼 수 있는 주체




  • SNS 게시 방법 (SDK 활용)
  1. topic 생성
  2. 하나 이상의 구독자 생성
  3. topic에 메세지 발행


  • SNS 게시 방법 (mobile apps전용 SDK 활용)
  1. application 생성
  2. endpoint 생성
  3. endpoint에 메세지 발행
  4. 수신 가능 application : Google GCM, Apple APNS, Amazon ADM


  • SNS Security
  1. HTTPS로 메세지를 보내고 수신함 -> 전송중 암호화 (SSE-SNS, SSE-KMS 두 가지 key 지원)
  2. KMS키를 활용하여 전송중 암호화 가능
  3. client에서 직접 암호화/복호화 가능 -> SNS에서 기본적으로 지원하는 기능은 아님
  4. IAM 정책을 통해 SNS API로의 접근을 제어할 수 있음 (호출측? 제어)
  5. S3 Bucket Policy와 같은 SNS Access Policy도 있음 -> 교차계정 접근이나 다른 서비스에서의 접근을 허용하는 데 유용함 (응답측? 제어)


SNS + SQS : Fan Out

  • Fan Out 패턴 : 다수의 SQS가 SNS의 Topic을 Subscribe하여 SNS에 수신된 메세지를 받고, SQS가 application에 메세지를 전달하는 방식 -> 특정 application이 직접 다수의 SQS에 붙어 메세지를 전송하면 유실가능성이 있음




  • SQS의 기능 활용 가능 : 데이터 지속성, 지연처리, 작업재처리 등

  • SQS Policy에 SNS의 write가 가능하도록 설정 필요

  • 특정 Region의 SNS에서 다른 Region의 SQS에 메세지 전송 가능


  • S3 Events to multiple queues
    : 다수의 SQS로 S3 Event를 전송하는 방법




  • SNS to Amazon S3 through Kinesis Data Firehose
    : Kinesis Data Firehose를 활용해 SNS에서 S3로 데이터를 전송하는 방법




  • SNS FIFO
  1. SQS FIFO와 유사한 특징
  2. 순서보장
  3. 중복제거
  4. SQS Standard와 FIFO 모두 Subscriber가 될 수 있음 (다른 서비스는 불가)
  5. SQS FIFO와 동일 처리량


  • Message Filtering
    : SNS Topic 구독자들에게 전송할 message를 filtering하는 JSON 정책 -> Filtering 기능이 없으면 모든 구독자들에게 모든 메세지가 전송됨




Amazon Kinesis

  • Kinesis : 실시간 스트리밍 데이터(실시간으로 빠르게 생성되는 데이터, SNS/SQS와의 차이?)를 쉽게 수집하고 처리하여 분석할 수 있음 (application logs, metrics, iot 원격측정 데이터 등)


  • types

  1. Kinesis Data Streams : 데이터 스트림을 수집하여 처리
  2. Kinesis Data Firehose : 데이터 스트림을 AWS 내부나 외부의 데이터 저장소로 읽어들임
  3. Kinesis Data Analytics : SQL이나 Apache Flink를 활용하여 데이터 스트림을 분석
  4. Kinesis Video Streams : 비디오 스트림을 수집하고 처리하여 저장


Kinesis Data Streams

  1. 데이터를 프로비저닝할 Shard를 설정해야 함 (갯수도 미리 설정)
  2. Shard는 Stream의 용량 결정
  3. 데이터 생산자는 SDK를 활용하여 Data Stream에 데이터 전송
  4. Record : Data Stream에 전송되는 데이터의 단위
    • Partition Key : Record가 이용할 Shard를 결정
    • Data Blob : 데이터 자체, 최대 1MB
    • Sequence No : Shard내 Record의 위치
  5. Shard마다 초당 천 개의 메세지 or 1MB를 보낼 수 있음
  6. 데이터를 소비하는 방법
    • Shard마다 초당 2MB처리를 모든 Consumer가 공유
    • Consumer마다 Shard당 1초에 2MB씩 받을 수 있음
  7. 데이터는 생산하는 과정 in CLI
    • Data Stream의 이름, partition key, data 3개의 파라미터로 데이터 저장 요청 (인코딩 타입도 설정 가능)
  8. 데이터를 소비하는 과정 in CLI
    • Data Stream의 Shard 정보를 가져옴
    • Shard ID를 파라미터로 하여 읽을 데이터의 Shard Iterator를 가져옴 (shard-iterator-type 옵션을 통해 Iterator를 다르게 반환받을 수 있음)
    • 받은 Iterator로 해당 메세지 수신
    • 메세지와 함께 NextShardIterator를 수신하여 다음 요청 시, 다음 메세지부터 받을 수 있게 할 수 있음
  9. Shard Iterator를 활용하여 특정 부분부터 데이터를 읽을 수 있음




  • 특징
  1. 1일~1년까지의 보존기간
  2. 데이터를 보존기간내 다시 처리할 수 있음
  3. 데이터 임의 삭제 불가 -> 불변성
  4. partition key가 같으면 같은 Shard로 들어가고, 해당 key를 기반으로 데이터 정렬
  5. Producer는 SDK, Kinesis Producer Library (KPL), Kinesis Agent를 사용하여 데이터 전송
  6. Consumer는 SDK, Kinesis Client Library (KCL)를 사용하여 데이터 직접 수신 (Lambda나 Firehost같은 AWS 서비스도 활용 가능)


  • Capacity Modes
  1. Provisioned Mode
    • 위에서 설명된 특징 모두 적용 (처리량, API접근, Shard설정 등)
    • 한계 : Shard를 프로비저닝할 때마다 시간당 비용 부과
  2. On-Demand Mode
    • 프로비저닝/용량관리 필요하지 않음 (자동으로 용량 조정되기 때문)
    • 언제든 용량 조정 가능
    • 초당 4MB 또는 4천개의 Record 처리
    • 30일 동안 측정된 최대 처리량에 기반하여 자동으로 용량 조정
    • 시간당 스트림당 송수신 데이터량(GB단위)에 따라 비용 부과
    • 사전에 사용량을 예측할 수 없을 때 유용


  • Kinesis Data Streams Security
  1. IAM Policy를 활용하여 Shard 생성 및 데이터 수신 접근 권한을 제어
  2. HTTPS로 전송중 암호화
  3. 미사용 데이터는 KMS로 암호화
  4. Client 자체적으로 데이터 암/복호화 가능
  5. VPC Endpoint 사용 가능 -> 인터넷을 거치지않고 private subnet의 인스턴스에서 이용 가능
  6. 모든 API 요청은 CloudTail로 모니터링 가능




Kinesis Data Firehose

  • Kinesis Data Firehose : 데이터스트림을 여러 source로부터 받아서 처리하고 Batch로 저장하는 방법을 제시함




  • 데이터 제공 및 저장 유형
  1. Amazon Service
    • Amazon S3
    • Amazon Redshift (웨어하우징 DB) -> 먼저 S3에 저장된 데이터 대상으로 Firehose에서 COPY명령을 내리면, Redshift 저장소로 S3의 데이터가 COPY됨
    • Amazon OpenSearch
  2. third party
    • Datadog
    • Splunk
    • New Relic
    • mongoDB
  3. Custom API (with HTTP)


  • 특징
  1. 데이터 저장 이후에 optional하게 모든 데이터 or 실패한 데이터를 백업으로 S3에 저장할 수 있음
  2. 자동확장 및 서버리스 기능이 있기에 관리가 필요없는 서비스 (Data Stream과의 차별점)
  3. Firehost를 통하는 데이터 대상으로만 요금 부과
  4. 자체적으로 1MB단위로 데이터를 묶어서 저장하기 때문에 Near Realtime (완전 실시간x) -> 데이터가 완전히 묶이지 않을경우, 최소 60초의 지연 발생 -> Buffer 기능 활용
  5. 데이터 포맷, 변환, 압축 지원
  6. Lambda활용 데이터 변환 가능
  7. Firehose내 데이터 저장 불가 (Data Stream과의 차별점)
  8. Console의 Delivery Stream메뉴에서 설정 가능


  • Data Stream vs Data Firehose




Ordering Data

  • 사례 : 각각의 ID를 가진 트럭 100대가 도로위에 있고, 각 트럭은 GPS데이터를 AWS에 보내고 있다. AWS에서는 각 트럭의 데이터를 순서대로 받아 각 트럭의 이동을 정확하게 측정하려고 한다.


  • Kinesis
    : Partition key를 트럭의 ID로 활용 -> 같은 Partition key일 경우, 동일 Shard로 데이터 전송 -> 특정 트럭 데이터는 동일 Shard에서 계속 처리가 됨 (Kinesis가 트럭의 partition key와 shard id를 해싱하는 방식)




  • SQS
    : Group ID를 가지지 않는 한, SQS Queue의 message 소비는 순서가 보장됨




  • 특정 그룹마다 연관된 메세지를 보내고 싶을 경우, Group ID 활용 (Group ID in SQS = Partition key in Kinesis) -> Consumer는 자신과 연관된 Group ID의 메세지만 수신




  • Kinesis vs SQS (100개의 트럭, 5개의 Kinesis Shard, 1개의 SQS FIFO)
  1. Kinesis
    • Shard당 평균 20개의 트럭
    • 각 Shard당 순서가 보장된 데이터
    • 최대 5개의 Consumer
    • 초당 5MB 데이터 수신
  2. SQS
    • Only 1 SQS FIFO
    • 각 트럭 ID에 상응하는 Group ID 생성 -> 100개의 Group ID -> 최대 100개의 Consumer
    • 초당 300개의 메세지, 배치 사용 시 초당 3,000개의 메세지


SQS vs SNS vs Kinesis




Amazon MQ

  • 온프레미스에서 기존 application을 실행하는 경우, MQTT/AMQP/STOMP/Openwire/WSS protocol 사용

  • 온프레미스 application을 cloud로 마이그레이션 하는 경우, SNS/SQS를 사용하는 것이 아닌 기존 protocol을 사용하고 싶을 때 Amazon MQ를 사용하면 됨

  • Amazon MQ : 관리형 메세지 브로커 서비스 (for RabbitMQ, ActiveMQ) -> RabbitMQ, ActiveMQ를 cloud에서 사용할 수 있음

  • RabbitMQ, ActiveMQ : 개방형 프로토콜(ex. MQTT 등)로의 access 제공


  • 특징

  1. 확장성(scale)이 크지 않음
  2. 고가용성을 위해 Multi-AZ 구축 필요
  3. SQS/SNS의 일부 기능을 제공


  • 고가용성
    : 장애조치의 저장소로 활용하기 위해 두 가용영역에 걸쳐 EFS 구축

반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] Serverless (Lambda/DynamoDB/API Gateway)  (1) 2024.06.08
[AWS] AWS Container Service  (0) 2024.06.01
[AWS] AWS Storage  (0) 2024.05.26
[AWS] CloudFront and Global Accelerator  (0) 2024.05.26
[AWS] Amazon S3 (3)  (0) 2024.05.25
728x90
반응형




AWS Snow Family

  • AWS Snow Family : 보안성 있는 휴대기기 -> edge에서 데이터를 수집하고 처리하거나, 데이터를 AWS 안팎으로 마이그레이션




  • Use cases
  1. Data migration : 많은 양의 데이터를 제한없이 전송하기위한 경우 -> AWS에서 우편을 통해 물리적인 기기를 배송 -> 해당 기기에 데이터를 올리고 다시 AWS에 배송 (네트워크가 아닌 물리적 배송방식을 이용)
    • Snowcone
    • Snowball Edge
    • Snowmobile
  2. Edge computing
    • Snowcone
    • Snowball Edge


  • Snowball Edge
  1. TBs or PBs 용량의 데이터를 AWS와 교환하기 위해 사용
  2. 전송작업당 비용 지불
  3. Storage Optimized : 80TB 하드디스크 용량 제공, block volume이나 S3 호환
  4. Compute Optimized : 42TB 하드디스크 or 28TB NVMe 용량 제공


  • Snowcone
  1. 작은 휴대기기, 견고하고 안전
  2. 열악한 환경에 강함
  3. 가벼움, 드론탑재 가능
  4. 8TB HDD or 14TB SSD 제공
  5. 공간제약이 있는 경우 활용
  6. 오프라인으로 데이터 전송 or 기기에 데이터를 담은 후에 인터넷을 통해 데이터센터에 연결 (AWS DataSync 서비스 사용, 사전 설치 되어있음)


  • Snowmobile
  1. 데이터를 옮기는 실제 트럭임
  2. 1EB(1,000PB)급 데이터를 옮길 수 있음 (한 대당 100PB 가능, 1EB는 10대 필요)
  3. 에어컨이 있어 온도조절 가능
  4. 실시간 GPS 추적 및 비디오 감시




  • Data migration을 위한 처리과정
  1. AWS console에서 기기배송 요청
  2. Snowball client or AWS OpsHub 설치
  3. Snowball을 설치된 서버에 연결하고 파일복사 시작
  4. 전자마커를 통해 목적지 AWS시설로 기기반송
  5. S3 Bucket에 데이터 로딩
  6. Snowball에서 데이터 완전삭제


  • Edge Computing : Edge 위치에서 데이터를 생성하고 해당 데이터를 기기내 AWS인스턴스를 활용하여 처리한다음 AWS에 반송하는 case (Edge : 인터넷이 없거나 Cloud에서 멀리 떨어진 환경, ex. 도로 위 트럭, 바다 위 배, 지하광산 등) -> Snowball Edge, Snowcone 활용
  1. 해당 Snowcone 기기들은 EC2 인스턴스와 Lambda Function 실행 가능 (AWS IoT Greengrass 서비스 활용)
  2. 장기렌트 가능


  • OpsHub : 컴퓨터에 설치하는 소프트웨어 -> Snow Device에 연결하고 설정할 수 있음, 파일전송 및 Snow Family의 인스턴스를 시작하고 관리 가능


  • Snowball 데이터를 Glacier로 옮기는 방법

  1. Snowball 데이터를 먼저 S3로 옮김
  2. S3 lifecycle policy를 생성하여 object를 Glacier로 전환




Amazon FSx

  • Amazon FSx : AWS에서 완전 관리해주는 서비스로 타사의 고성능 파일 시스템을 실행 (RDS에서 MySQL or Postgres를 실행하는 것과 동일개념)




  • FSx for Windows File Server
  1. SMB protocol과 Windows NTFS를 지원
  2. 사용자 보안 추가, ACL로 Access 제어 가능
  3. Linux EC2 인스턴스에도 Windows Fil Server 마운트 가능
  4. DFS (Distributed File System)을 활용하여 File System 그룹화 가능 (온프레미스와 결합 가능)
  5. 초당 수십GB, 수백만 IOPS, 수백PB 데이터 확장
  6. SSD : 지연시간이 짧아야 하는 경우 (DB, 미디어 처리, 데이터 분석 등)
  7. HDD : 비용이 저렴, 더 넓은 스펙트럼 (홈 디렉토리, CMS 등)
  8. Private하게 온프레미스에서 접근 가능
  9. Multi-AZ 가능
  10. 재해복구 목적으로 S3에 매일 백업


  • FSx for Lustre
  1. Lustre (Linux + Cluster) : 분산 파일 시스템, 대량 처리 연산에 활용 (머신러닝, HPC 등)
  2. 동영상처리나 금융모델링, 전자설계 자동화 등의 app에서 활용
  3. 확장성이 높음
  4. 초당 수백GB, 수백만 IOPS, ms보다 짧은 지연시간
  5. SSD : 지연시간이 짧아야 하는 경우
  6. HDD : 처리량이 많거나 크기가 큰 시퀀스 파일 작업에 활용하는 경우
  7. FSx로 S3를 File System처럼 읽을 수 있음 (다시 연산 출력값을 S3에 쓸 수 있음)
  8. VPN 및 직접 연결을 통해 온프레미스 서버에서 활용 가능


  • FSx File System Deployment Options
  1. Scratch File System
    • 임시 스토리지로 데이터 복제 x (파일 유실 가능성 있음)
    • High burst 사용 가능 (최적화로 성능을 높일 수 있다는 말, 200MBps per TiB)
    • 단기 처리데이터에 쓰임
    • 비용 최적화 가능
    • 추가 데이터 저장소로 S3 Bucket을 둘 수 있음
  2. Persistence File System
    • 동일 AZ에 데이터복제됨
    • 민감 데이터의 장기 처리 및 Storage에 활용




  • FSx for NetApp ONTAP
  1. AWS 관리형 NetApp ONTAP File System
  2. NFS, SMB, iSCSI Protocol 호환
  3. 온프레미스의 ONTAP이나 NAS에서 실행중인 워크로드를 AWS로 옮길 수 있음
  4. 스토리지는 자동으로 확장/축소됨
  5. 복제 및 스냅샷 기능 제공
  6. 저비용, 데이터 압축, 데이터 중복제거 가능
  7. 지정시간 복제 기능 -> 신속한 복제 및 스테이징 File System 구축 가능
  8. 호환 OS




  • FSx for OpenZFS
  1. AWS 관리형 OpenZFS File System
  2. 여러 버전에서의 NFS Protocol과 호환 가능
  3. ZFS에서 사용된 워크로드를 AWS로 옮길 때 사용
  4. 최대 백만 IOPS, 지연시간은 0.5ms 이하
  5. 스냅샷, 압축 기능 제공
  6. 지정시간 동시 복제 기능 -> 새로운 워크로드 테스트 시에 유용
  7. 호환 OS




AWS Storage Gateway

  • AWS에서는 Hybrid Cloud 권장 (Hybrid Cloud : 일부는 AWS, 나머지는 온프레미스인 환경)

  • Cloud Migration이 오래걸림

  • 보안/규정 준수 요건이 있는 경우

  • S3는 EFS/NFS와는 다른 Storage 기술 -> S3를 온프레미스에 연결하는 방법 고안 필요 -> AWS Storage Gateway 활용


  • AWS Storage Cloud Native Options




  • AWS Storage Gateway : 온프레미스 데이터와 클라우드 데이터 간의 다리역할


  • Use cases

  1. 재해복구 목적으로 온프레미스 데이터를 클라우드에 백업
  2. 백업 및 복구 목적으로 Cloud Migration 및 Cloud간 Storage 확장 (Cloud엔 Cold Data, 온프레미스엔 Warm Data)
  3. 파일 액세스 지연을 줄이기 위해 온프레미스 Cache 활용


  • Storage Gateway Types
  1. S3 File Gateway
  2. FSx File Gateway
  3. Volume Gateway
  4. Tape Gateway


  • S3 File Gateway
  1. S3 class중 Glacier는 활용 불가
  2. 온프레미스 app -> AWS S3 Bucket, 온프레미스에서는 NFS or SMB protocol을 활용하여 S3 File Gateway에 요청을 보냄
  3. S3 File Gateway는 해당 요청을 받아 HTTPS요청으로 변환하여 S3 Bucket에 전달함
  4. S3 Life Cycle Policy를 통해 Object를 Glacier로 저장 가능
  5. S3 File Gateway를 통해 받은 데이터는 해당 Gateway에 캐싱됨
  6. 각 File Gateway마다 IAM Role 생성 필요
  7. SMB Protocol을 활용하는 경우, 사용자 인증을 위해 Gateway와 Active Directory를 통합해야 함 -> 사용자가 File Gateway에 접근할 때 인증처리 진행




  • FSx File Gateway
  1. Amazon FSx for Windows File Server에 Native Access 제공 -> 온프레미스에서의 접근 가능
  2. 온프레미스에서 접근 가능함에도 불구하고 FSx File Gateway를 사용하는 이유는 캐싱기능 떄문
  3. SMB, NTFS, Active Directory 호환 가능 -> 그룹 파일 공유나 온프레미스를 연결할 홈 디렉토리로 사용 가능




  • Volume Gateway
  1. iSCSI protocol 사용
  2. Volume이 EBS snapshot으로 저장되어 필요에 따라 온프레미스에서 Volume을 복구할 수 있음
  3. Cached volumes : 저지연 접근
  4. Stored volumes : 전체 데이터가 온프레미스에 있고, 주기적으로 S3에 백업




  • Tape Gateway
  1. 물리적으로 Tape을 사용하는 백업 시스템이 있는 회사가 백업으로 Tape대신 Cloud에 데이터를 백업할 수 있도록 해줌
  2. VTL (Virtual Tape Library)로 Amazon S3와 Glacier를 이용
  3. 기존 백업 데이터를 iSCSI 인터페이스를 사용하여 백업




  • Hardware appliance
  1. 온프레미스에 Gateway를 설치할 가상서버가 없는 경우에 활용 (Amazon.com에서 신청)
  2. Hardware appliance를 Amazon에서 주문 후, 온프레미스에 물리적 설치 -> Gateway로 설정




  • Summary




AWS Transfer Family

  • AWS Transfer Family : FTP protocol로 S3 및 EFS에 데이터를 전송하려는 경우 사용


  • Supported Protocols

  1. AWS Transfer for FTP
  2. AWS Transfer for FTPS
  3. AWS Transfer for SFTP




DataSync

  • DataSync : 데이터 동기화를 통한 대용량의 데이터를 한곳에서 다른 곳으로 옮김


  • 온프레미스나 AWS의 다른 클라우드로 데이터를 옮길 수 있음

  • 서버를 NFS, SMB, HDFS, others... 다른 프로토콜에 연결해야 함 -> 연결할 온프레미스나 다른 클라우드의 Agent가 필요

  • 다른 Storage간 데이터 Migration도 가능 -> Agent 불필요

  • 복제는 일정을 지정하여 주기적으로 실행

  • 파일 권한과 메타데이터 저장기능이 있음 -> NFS POSIX 파일 시스템 및 SMB 권한 준수

  • Agent 하나의 task가 초당 10Gb까지 사용 가능, 대역폭 제한 가능

  • 네트워크 용량이 부족한 경우, Snowcone 장치 사용 가능 (DataSync Agent가 사전에 설치)

  • NFS or SMB 서버에 연결하려면 DataSync Agent 설치 필요


  • 동기화 가능 Storage list

  1. Glacier를 포함한 모든 Storage Class의 S3
  2. Amazon EFS
  3. Amazon FSx


  • SMB/NFS 프로토콜의 온프레미스 파일을 AWS로 동기화하는 예시




  • 서로다른 AWS Storage 서비스간 동기화 예시




Storage 비교

반응형

'개발 > AWS' 카테고리의 다른 글

[AWS] AWS Container Service  (0) 2024.06.01
[AWS] SQS, SNS, Kinesis, Active MQ  (0) 2024.06.01
[AWS] CloudFront and Global Accelerator  (0) 2024.05.26
[AWS] Amazon S3 (3)  (0) 2024.05.25
[AWS] Amazon S3 (2)  (0) 2024.05.22

+ Recent posts