Hadoop, HBase, Spark, Hive, Presto 등의 오픈 소스 프레임워크 설치, 구성이 최적화된 클러스터가 생성되어 사용자는 바로 분석에 필요한 작업을 수행할 수 있습니다.
다양한 유형의 서버 타입을 제공하여, 사용자는 분석에 필요한 성능에 맞춰서 다양한 서버를 선택하여 빠르게 대량의 데이터 분석이 가능합니다.
Cloud Hadoop은 기본 저장소(HDFS)로 Block Storage를 지원합니다. Object Storage와도 연동이 가능하여 다양한 유형의 스토리지를 연계하여 사용할 수 있습니다.
Cloud Hadoop 클러스터 생성시 필수로 2대의 마스터 노드를 제공하고 이중화 구성하여 고가용성을 보장합니다. 마스터 노드 장애시 standby 노드의 역할 변경되어 마스터 노드로의 역할 수행이 가능합니다.
클릭 몇 번만으로 클러스터의 작업자 노드 수를 증가하거나 축소가 가능함으로써 확장성과 유연성을 보장합니다.
외부 접속을 위한 Edge Node를 분리하여 자원의 효율성과 보안성을 제공합니다.
오픈 소스인 Apache Ambari를 이용해 손쉬운 Web UI 및 REST API 사용을 활용하여 Cloud Hadoop 클러스터의 관리 및 모니터링을 편리하고 효율적으로 할 수 있습니다.
분석에 필요한 성능만큼 컴퓨팅 노드 확장/축소 가능.
용량 걱정 없이 저장할 수 있는 Object Storage 사용.
"Cloud Hadoop"은 대량의 자료를 처리할 수 있는 오픈 소스 프레임워크인 Apache Hadoop, HBase, Hive, Spark, Presto를 이용하고 있습니다.
클러스터가 시작된 시점부터 종료될 때까지 사용자가 사용한 만큼 지불하는 비용 효율적인 서비스입니다. 요금은 1분을 최소 요금으로 분당 청구 됩니다.
마스터 노드는 기본적으로 고가용성을 위해 2대가 생성됩니다.
기본 제공되는 50GB의 디스크는 운영체제를 위한 디스크로 별도로 증설이나 추가되지 않으며, 이용 요금에 포함되어 있습니다.
Cloud Hadoop 데이터를 저장하기 위한 데이터 스토리지(Block Storage, Object Storage)는 별도로 사용량에 따른 시간 요금으로 과금됩니다.
타입 | vCPU | 메모리 | 디스크 | 네트워크 트래픽 | 요금 (분) |
---|---|---|---|---|---|
High CPU | 8개 | 16GB | 50GB | 1,024GB | - |
16개 | 32GB | 50GB | 1,024GB | - | |
32개 | 64GB | 50GB | 2,048GB | - | |
Standard | 4개 | 16GB | 50GB | 1,024GB | - |
8개 | 32GB | 50GB | 1,024GB | - | |
16개 | 64GB | 50GB | 2,048GB | - | |
32개 | 128GB | 50GB | 4,096GB | - | |
High Memory | 4개 | 32GB | 50GB | 1,024GB | - |
8개 | 64GB | 50GB | 2,048GB | - | |
16개 | 128GB | 50GB | 4,096GB | - | |
32개 | 256GB | 50GB | 4,096GB | - |
(VAT 별도)
타입 | vCPU | 메모리 | 디스크 | 네트워크 트래픽 | 요금 |
---|---|---|---|---|---|
Standard | 4개 | 8GB | 50GB | 512GB | - |
8개 | 16GB | 50GB | 1,024GB | - | |
16개 | 32GB | 50GB | 1,024GB | - | |
4개 | 16GB | 50GB | 1,024GB | - | |
8개 | 32GB | 50GB | 1,024GB | - | |
4개 | 32GB | 50GB | 1,024GB | - | |
High Memory | 8개 | 64GB | 50GB | 2,048GB | - |
16개 | 128GB | 50GB | 2,048GB | - | |
32개 | 256GB | 50GB | 2,048GB | - |
(VAT 별도)
제공 사양에 따른 기본 네트워크 트래픽 (인터넷 아웃바운드 기준) 용량이 제공됩니다.
기본 네트워크 트래픽 제공량을 초과한 이용량에 대해서는 공개된 네트워크 트래픽 요금제에 따라 과금됩니다.
기본 네트워크 트래픽 제공량은 일할 계산됩니다.
Ex. 4 vCPU, 메모리 8GB 5대를 15일간 이용한 경우, 기본 네트워크 트래픽 제공량은 1,280GB(=512GBX15일/30일X5대)입니다.
기본 네트워크 트래픽 제공량과 초과 이용량은, 합산되어 계산됩니다.
Ex. Service 1 : 한 달 간 마스터 노드 2대, 작업자 노드 3대 구성으로 4 vCPU, 메모리 8GB 를 5대 사용 / Service 2 : 한달간 마스터 노드 2대, 작업자 노드 3대 구성으로 4 vCPU, 메모리 16GB 를 5대 사용
한 달 간 Service 1에서 네트워크 트래픽 3,000GB 이용 + Service 2에서 네트워크 트래픽 3,000GB를 이용한 경우,Service 1에서는 기본제공량을 512GB 초과했으나 총 네트워크 트래픽 이용량이 6,000GB(=3,000GB+3,000GB)로,이용량이 서버별 기본 네트워크 트래픽 제공량의 합인 7,680GB(=2,560GB+5,120GB) 이하에 해당되어 별도 요금은 발생되지 않습니다.
Cloud Hadoop HDFS 데이터를 저장하기 위한 스토리지입니다.
최소 100GB ~ 2,000GB까지 10GB 단위로 사용가능하고, 4,000GB, 6,000GB로 사용 가능합니다.
최소 100GB, 최대 2,000GB 까지 10GB 단위로 사용 가능합니다.
데이터 스토리지 사용량에 따른 요금표는 요금 > 서비스별 요금안내 > Block Storage에서 확인 할 수 있습니다.
대용량의 데이터를 저장하기 위해 Object Storage를 사용합니다.
Object Storage 요금은 저장된 데이터 양, API 요청수, 네트워크 전송 요금을 합산하여 부과합니다.
Object Storage 사용량에 따른 요금표는 요금 > 서비스별 요금안내 > Object Storage 에서 확인 할 수 있습니다.
아웃바운드 트래픽에 대한 네트워크 사용량을 과금합니다.
네트워크 사용량에 따른 요금표는 요금 > 서비스별 요금안내 > Network 에서 확인 할 수 있습니다.