목록전체 글 (67)
Study_note
cka를 따고 다음 자격증으로 Terraform associate를 목표로 잡았다 iac를 목표로 설정한 이유는 awskrug의 발표들 및 원티드의 공고를 보면 terraform을 사용안하는 업체가 없다 모든 인프라를 코드로 재사용할수있는 iac의 큰장점이 트랜드를 이끈것 같다 사실 겉핧기 식으로 공부한 경험은 있지만 목적과 동기부여가 없는데 자격증을 목표로 잡고 공부할 계획을 잡았다 우선 자격증 취득 목적이 아니라 기술 습득을 우선시 하기 떄문에 공부 할 책을 찾던 도중 Terraform up & running을 선택하게 됐다 후기들도 좋고 워낙 oreilly의 책들은 좋다는 평을 들었기 때문에 선택하게 됐다 https://www.terraformupandrunning.com/ Terraform: Up..
site to site VPN이란? 두 개의 네트워크 도메인이 가상의 사설 네트워크 연결을 사용하여 프라이빗 통신을 제공하며 AWS에서 제공하는 Site-to-Site VPN은 표준 IPSec VPN만 지원한다. AWS에서 관리형 서비스로 제공하는 AWS S2S VPN은 기본적으로 고가용성 아키텍처를 제공한다. VGW의 2개의 Endpoint(Tunnel1, Tunnel2)를 동시에 VPN 터널을 맺을 수 있다. VPN은 99.95%로 한달 5분 2초는 비활성 될 수 있기 때문에 아래처럼 터널 이중화 구성을 권장 한다. 운영환경에서는 active/stanby 형식으로 가동하여 가용성을 향상 시킨다 평상시 통신 터널2는 stanby 상태로 사용하지 않고 터널1을 통해서 통신한다. 장애 발생 시 터널 1 다..
시험 환경이나 등록 및 세부적인 내용들은 타 블로그에서 찾아보면 쉽게 찾아볼 수 있기 때문에 넘어간다 공부 방법 1. 우선 CKA를 준비하기전에 "핵심만 콕 쿠버네티스"라는 기초 K8S책을 2번 정도 정독한거 같다 첫번째는 실습을 따라하는 느낌으로 컨트롤러들을 이해한다면 두번째는 각 컨트롤러 내부 설정 이나 특징 등 정확히 파악하듯이 공부했다 2. 제일 강력추천하는게 다들 추천하는 뭄샤드님의 udemy 강좌이다. 이 강좌는 k8s 실습 환경을 무제한으로 제공해주기 때문에 연습환경으로 사용하기 좋고 1에서 이해했던 부분들을 실습을 통해 깊게 파고들수 있다. 중요한게 mock exam, lightning labs 파트는 무조건 3번은 보고 전부 풀수있는 실력을 만들것 시험에서 mock exam, lightn..
양방향 통신 방법 http vs websocket http : Client의 요청이 있을 때만 서버가 응답하고 연결을 종료하는 단방향 통신 따라서 클라이언트가 서버에 접속해 콘텐츠를 요청하고 결과를 받아 소비하는 구조의 서비스에서 많이 사용된다. 하지만 HTTP을 통해 양방향 통신 하는 방법도 있는데 아래와 같다 Http Polling : 클라이언트가 지속적으로 서버로 request를 하여 이벤트를 수신하는 방식이다. 가장 간단한 방법이지만, 지속적으로 서버에 요청을 던지기 때문에 서버의 오버헤드를 고려할 수 밖에 없는 상황이다. Http Long Polling: polling에 비해 클라이언트는 이벤트를 받기 전까지 다음 요청을 날리지 않는다. 하지만, 원하는 이벤트를 얻기 위해 지속적으로 요청해야한다..
서버 db -> DMS -> S3 -> Glue 까지 진행했는데 이제 ETL을 통한 데이터를 사용하여 쿼리를 날려볼것이다. 우선 Athena로 이동 후 쿼리 결과 위치를 (1)에서 생성했던 s3 폴더인 query_result 지정해준다 경로 설정 후 ETL을 통해 카탈로그 데이터베이스에 저장했던 테이블들을 선택해주고 쿼리를 날려보면 아래와 같이 결과 값을 도출하는것을 확인할수있는데 여기서 생성을 통해 쿼리2처럼 쿼리로도 결과값을 받을 수 있으며 테이블을 선택해 카탈로그 데이터베이스에 저장하여 결과 값들을 저장할 수 있다. 또한 저장 - 다른 이름으로 저장 선택 시 위에서 선택했던 폴더(query_result)에 해당 SQL의 이름으로 Data가 저장됩니다. 저장을 하지 않을 경우 Unsaved에 Defa..
s3로 마이그레이션된것을 확인했다면 마이그레이션 된 데이터들을 glue를 통해 정제 시키는 과정을 거쳐본다. 우선 glue에서 사용할 역할을 생성해준다. 권한은 AWSGlueServiceRole, AmazonS3FullAccess 넣고 생성 다음으로 glue - crawlers로 이동 후 데이터들을 모으기 위하여 크롤러 생성 임의로 crawler 이름 생성 -> 카탈로그에서 가져오는게 아닌 s3에서 추출 하기 때문에 data stores 선택 -> 폴던 전체에 파일이 필요하기 때문에 all folders 선택 다음으로 파일들이 있는 s3버킷에 폴더경로를 넣어준다. 후 위에서 생성했던 역할 선택 -> 일정은 온디맨드 실행 선택 다음으로 크롤러 데이터베이스를 만들기 위하여 데이터 베이스 추가 후 임의로 이름..