클러스터 생성

페이지 이동경로

클러스터 만들기

클러스터란 Virtual Machine을 이용하여 프로비저닝된 노드들의 집합입니다.
Hadoop Eco 서비스에서 클러스터를 생성하는 방법은 다음과 같습니다.

안내
클러스터 생성 시 약 20~25분 정도가 소요됩니다.

Step 1. 클러스터 설정하기

Hadoop 클러스터 생성을 위한 기본 정보를 설정합니다.

  1. 카카오 i 클라우드 콘솔에서 Hadoop Eco 메뉴를 선택합니다.

  2. Cluster 탭에서 우측 상단에 위치한 [클러스터 만들기] 버튼을 클릭합니다.

    이미지 이미지 클러스터 만들기

  3. 1단계: 클러스터 설정에서 정보를 입력하고 [다음] 버튼을 클릭합니다.

    이미지 이미지 1단계: 클러스터 설정

    항목 구분 설명
    클러스터 이름   영문으로 시작하여 영문 소문자, 숫자, -만 사용해 4~20자 이내로 입력
    - 예시: my-cluster-01
    - 같은 프로젝트 내에서 중복된 클러스터 이름은 사용 불가
    - 클러스터 이름 기반으로 VM 생성
    - 마스터 노드: HadoopMST-{클러스터 이름}-{번호} 형식으로 생성
    - 워커 노드: HadoopWRK-{클러스터 이름}-{번호} 형식으로 생성
    클러스터 구성 클러스터 버전 클러스터 버전 선택
      클러스터 타입 - 클러스터 버전에 따라 클러스터 타입 선택
    - 자세한 설명은 표. 클러스터 버전 및 타입 참고
      클러스터 가용성 클러스터의 운영 안정성을 위해 가용성 타입으로 표준과 고가용성 타입을 제공
    - 표준(Single, 마스터 노드 인스턴스 1개): 리소스 매니저, 네임 노드가 1개 실행됨
      ㄴ 단일 마스터 노드를 생성, 소규모 작업에 적합
    - 고가용성 (HA, 마스터 노드 인스턴스 3개): 리소스 매니저, 네임 노드가 HA 모드로 실행됨
       ㄴ 3개의 마스터 노드를 생성, 재부팅 등이 발생해도 중단없는 작업 가능
    관리자 설정 관리자 아이디 영문으로 시작하여 영문 소문자, 숫자, -만 입력 가능(4~20자)
      관리자 비밀번호 영문 대소문자, 숫자, 특수문자 모두 포함하여 8~30자 이내 입력 가능
    - 비밀번호 재설정 방법에 대한 자세한 설명은 Hue 비밀번호 재설정 참고
      관리자 비밀번호 확인 관리자 비밀번호와 동일하게 입력


클러스터 버전 및 타입

클러스터 버전 클러스터 타입 옵션
Hadoop Eco 1.0.0
(Trino 타입 미지원)
Core Hadoop Core Hadoop (Hadoop 2.10.1 HDFS, YARN, Spark 2.4.6)
- Hadoop과 연동해 사용할 수 있는 분석 엔진 Apache Spark, Hive를 함께 설치
  HBase HBase (Hadoop 2.10.1, HBase 1.4.13)
- Hadoop 기반 분산 데이터베이스인 Apache HBase를 함께 설치
Hadoop Eco 1.1.0 Core Hadoop Core Hadoop (Hadoop 2.10.1 HDFS, YARN, Spark 2.4.8)
  HBase HBase (Hadoop 2.10.1, HDFS, YARN, HBase 1.7.1)
  Trino Trino (Hadoop 2.10.1, HDFS, YARN, Trino 0.377)
- 다양한 소스를 지원하고 대용량 데이터를 처리할 수 있는 Trino를 함께 설치
Hadoop Eco 1.1.1 Core Hadoop Core Hadoop (Hadoop 2.10.2 HDFS, YARN, Spark 2.4.8)
  HBase HBase (Hadoop 2.10.2, HDFS, YARN, HBase 1.7.1)
  Trino Trino (Hadoop 2.10.2, HDFS, YARN, Trino 0.377)
- 다양한 소스를 지원하고 대용량 데이터를 처리할 수 있는 Trino를 함께 설치
Hadoop Eco 2.0.0 Core Hadoop Core Hadoop (Hadoop 3.3.4 HDFS, YARN, Spark 3.2.2)
  HBase HBase (Hadoop 3.3.4 HDFS, YARN, HBase 2.4.13)
  Trino Trino (Hadoop 3.3.4, HDFS, YARN, Trino 0.393)
- 다양한 소스를 지원하고 대용량 데이터를 처리할 수 있는 Trino를 함께 설치

안내
1.0.0 버전에서는 Trino 타입을 지원하지 않습니다.

Step 2. 인스턴스 설정하기

마스터 및 워커 인스턴스, 스토리지, 네트워크를 설정합니다.

2단계: 인스턴스 설정에서 정보를 입력하고 [다음] 버튼을 클릭합니다.

  • 클러스터 생성 이후, 인스턴스와 디스크 볼륨 설정값은 변경할 수 없습니다.
  • 마스터/워커 인스턴스 및 디스크 볼륨 추가는 추후 지원 예정입니다.

    이미지 이미지 2단계: 인스턴스 설정

    항목 구분 설명
    마스터 노드 설정 마스터 노드 인스턴스 개수 클러스터 가용성에 따라 개수 고정
    - 표준(Single) 타입: 1개
    - HA 타입: 3개
      마스터 노드 인스턴스 타입 지원하는 인스턴스 타입 중 선택
    - 선택한 인스턴스 타입에 따라 호스트 컴퓨터의 하드웨어 구성
    - 자세한 설명은 Virtual Machine > Overview 참고
      디스크 볼륨 타입 / 크기 - 볼륨 타입: 현재 SSD 타입만 지원(이외의 타입은 추후 지원 예정)
    - 볼륨 크기: 1 ~ 5,120GB
    워커 노드 설정 워커 노드 인스턴스 개수 목적에 따라 개수를 선택할 수 있으며, 전체 개수는 프로젝트의 쿼터에 따라 결정
    - [+], [-] 버튼 또는 숫자 입력을 통해 개수 조절
      워커 노드 인스턴스 타입 지원하는 인스턴스 타입 중 선택
    - 선택한 인스턴스 타입에 따라 호스트 컴퓨터의 하드웨어 구성
    - 자세한 설명은 Virtual Machine > Overview 참고
      디스크 볼륨 타입 / 크기 볼륨 타입: 현재 SSD 타입만 지원(이외의 타입은 추후 지원 예정)
    - 볼륨 크기: 1~5,120GB
    총 YARN 사용량 YARN Core ‘워커 노드 수 x 노드당 vCPU 수’의 결과값
      YARN Memory ‘워커 노드 수 x 각 노드의 메모리 크기 x YARN에 지정된 비율(0.8)’의 결과값
    키페어   인스턴스에 적용할 키페어 선택
    - 카카오 i 클라우드의 기존에 생성 및 추가된 키페어 중 선택하거나 신규 키페어를 생성해 할당
    - 신규 키페어 생성은 신규 키페어 생성 참고
    * [새로고침] 아이콘을 클릭해 키페어 정보를 새로 가져옴
    * 관리 페이지를 클릭해 Vritual Machine > Key Pair로 이동
    네트워크 구성   네트워크와 서브넷을 선택
    - [새로고침] 아이콘을 클릭해 네트워크 정보를 가져옴
    - 관리 페이지를 클릭해 VPC > Network로 이동
    - 외부에서 접근 가능한 공인 IP는 인스턴스 생성 후 [공인 IP 연결] 메뉴에서 할당
    시큐리티 그룹   새로운 시큐리티 그룹을 생성: 시큐리티 그룹 이름을 입력하여 새로 생성
      - Hadoop Eco를 위한 인바운드/아웃바운드 정책을 자동으로 설정
    기존에 생성된 시큐리티 그룹을 선택: 인바운드/아웃바운드 정책을 확인
      - [새로고침] 아이콘을 클릭해 네트워크 정보를 새로 가져옴
      - 관리 페이지를 클릭해 VPC > Security로 이동
      - 시큐리티 그룹 설정에 대한 자세한 설명은 시큐리티 그룹 설정 참고

신규 키페어 생성

클러스터 만들기에서 키페어를 생성하는 방법은 다음과 같습니다.

  1. 신규 키페어 생성을 선택하고, 키페어 이름을 입력합니다.
    • 키페어의 이름은 영문 소문자, 숫자, -만으로 4~20자 이내(예시: keypair-01)
  2. [키페어 생성 및 다운로드] 버튼을 클릭합니다.
  3. 입력한 키페어 이름으로 .pem 확장자의 개인키 키 파일이 다운로드됩니다.

안내
다운로드한 개인키 파일은 안전하게 보관하시기 바랍니다.

시큐리티 그룹 설정

Hadoop Eco 서비스에서 클러스터를 설치하기 위해 컴포넌트가 사용하는 포트를 시큐리티 그룹에 설정해야 합니다. 컴포넌트 구성을 위해 특정 포트는 반드시 오픈해야 합니다. 적용된 정책 리스트에서 인스턴스에 적용될 정책을 미리 확인할 수 있습니다.

  • 시큐리티 그룹 자동 생성 시, 시큐리티 그룹 이름의 기본값은 생성 날짜, 클러스터 버전, 타입에 따라 자동으로 지정됩니다.
  • 시큐리티 그룹 이름 예시: {cluster_name}-HDE-{version}-{type}
  • 인스턴스를 생성할 때는 1개의 시큐리티 그룹만 설정할 수 있으며 추가적인 시큐리티 그룹 설정은 생성 이후 가능합니다.

인바운드 정책

클러스터 생성 시 시큐리티 그룹을 자동으로 생성합니다. 자동 생성된 시큐리티 그룹에서 설정되는 포트 정보는 다음과 같습니다.

인바운드 정책

프로토콜 패킷 출발지 포트 번호 정책 설명
TCP 0.0.0.0/0 22 ssh
ALL VPC subnet CIDR ALL hadoop eco internal
TCP 0.0.0.0/0 8088 yarn.resourecemanager.webapp.address
TCP 0.0.0.0/0 8180 zeppelin
TCP 0.0.0.0/0 8188 yarn.log.server.web-service.url
TCP 0.0.0.0/0 8780 trino coordinator
TCP 0.0.0.0/0 8888 hue
TCP 0.0.0.0/0 9864 hadoop3 dfs.datanode.http-address
TCP 0.0.0.0/0 9870 hadoop3 dfs.nameanode.http-address
TCP 0.0.0.0/0 9999 tez-ui
TCP 0.0.0.0/0 10002 hive.server2.webui.port
TCP 0.0.0.0/0 11000 oozie
TCP 0.0.0.0/0 16010 hbase.master.info.port
TCP 0.0.0.0/0 16030 hbase.regionserver.info.port
TCP 0.0.0.0/0 18082 spark.history.ui.port
TCP 0.0.0.0/0 19888 yarn.log.server.url
TCP 0.0.0.0/0 50070 dfs.namenode.http-address
TCP 0.0.0.0/0 50075 dfs.datanode.http-address

아웃바운드 설정

아웃바운드는 전체 허용으로 설정합니다.

Step 3. 작업 스케줄링 설정하기 (선택)

Step. 1 클러스터 설정하기에서 클러스터 타입을 Core Hadoop으로 선택한 경우, 작업 스케줄링 설정을 진행합니다.
작업 스케줄링 설정 시 Hive 작업 / Spark 작업 / 설정 안함 중 작업 종류를 선택합니다. Hive 작업 / Spark 작업을 선택한 경우 작업의 스케줄링을 설정할 수 있으며, 설정 안함을 선택한 경우에는 작업 스케줄링 설정을 진행하지 않습니다.

  • 작업 스케줄링 설정 시 [새로고침] 아이콘을 클릭해 Object Storage 버킷 정보 가져옴
  • 관리 페이지를 클릭해 Object Storage 서비스로 이동

Hive 작업 스케줄링 설정

Hive 작업의 스케줄링을 설정합니다.

안내
Hive 옵션에서 버킷 선택 시, 스토리지 객체 관리자스토리지 객체 생성자는 객체 업로드는 가능하나 Object Storage 버킷의 접근 권한이 없어 콘솔에서 객체를 확인할 수 없습니다. 단, Object Storage API로 접근하는 경우에는 객체를 읽을 수 있습니다.

  1. 3단계: 작업 스케줄링 설정에서 작업 종류Hive 작업으로 선택합니다.
  2. Hive 작업의 스케줄링 정보를 입력합니다.

    이미지 이미지 3단계: 작업 스케줄링 설정

    구분 설명
    작업 종류 Hive 작업: 클러스터 생성 후 Hive 작업 실행
    실행 파일 실행 파일 유형
    - 파일: Object Storage 버킷을 선택 후 실행할 파일 등록, 확장자가 .hql인 파일만 등록 가능
    - 텍스트: Hive 쿼리를 작성하여 작업에 전달
    Hive 옵션 작업에 전달할 옵션값 작성
    - 코드 예제. Hive 옵션 참고
    - 파일: Object Storage 버킷을 선택 후 Hive 옵션 파일 등록
    - 텍스트: Hive 옵션 값을 작성하여 작업에 전달
    작업 종료 동작 작업 종료 시 동작 선택
    - 실패 시 대기: 작업 실패 시 클러스터를 대기 상태로 유지
    - 항상 대기: 작업이 실패되거나 완료되어도 클러스터를 종료하지 않음
    - 항상 종료: 작업이 실패되거나 완료되어도 클러스터 종료
    스케줄링 로그 파일 저장 스케줄링 로그 파일 저장 선택
    - 저장하지 않음: 스케줄링 로그를 저장하지 않음
    - Object Storage에 저장: 원하는 버킷에 스케줄링 로고 파일 저장
    * 선택한 버킷명/log/ 경로에 로그 파일 적재

코드 예제 Hive 옵션

hive [Hive 옵션] -f [실행파일]
 ex) Hive 옵션: --hiveconf hive.tez.container.size=2048 --hiveconf hive.tez.java.opts=-Xmx1600m
     실행 파일: sample.hql
    
 hive --hiveconf hive.tez.container.size=2048 --hiveconf hive.tez.java.opts=-Xmx1600m -f sample.hql

Spark 작업 스케줄링 설정

Spark 작업의 스케줄링을 설정합니다.

  1. 3단계: 작업 스케줄링 설정에서 작업 종류Spark 작업으로 선택합니다.
  2. Spark 작업의 스케줄링 정보를 입력합니다.

    이미지 이미지 3단계: 작업 스케줄링 설정

    구분 설명
    작업 종류 Spark 작업: 클러스터 생성 후 Spark 작업 실행
    실행 파일 Object Storage 버킷을 선택 후 실행할 파일 등록
    - 확장자가 .jar인 파일만 등록 가능
    Spark-submit (선택) 작업에 전달할 옵션값 작성
    - 코드 예제. Spark 옵션 참고
    인수(선택) 실행하는 .jar 파일에 전달할 인수값 작성
    - 파일: Object Storage 버킷을 선택 후 인수 파일 등록
    - 텍스트: 인수를 작성하여 작업에 전달
    배포 모드 Spark를 실행할 모드 설정
    - {클라이언트 / 클러스터} 중 선택
    작업 종료 동작 작업 종료 시 동작 선택
    - 실패 시 대기: 작업 실패 시 클러스터를 대기 상태로 유지
    - 항상 대기: 작업이 실패되거나 완료되어도 클러스터를 종료하지 않음
    - 항상 종료: 작업이 실패되거나 완료되어도 클러스터 종료
    스케줄링 로그 파일 저장 스케줄링 로그 파일 저장 선택
    - 저장하지 않음: 스케줄링 로그를 저장하지 않음
    - Object Storage에 저장: 원하는 버킷에 스케줄링 로고 파일 저장
    * 선택한 버킷명/log/ 경로에 로그 파일이 적재

코드 예제 Spark 옵션

spark-submit \
--deploy-mode client \
--class org.apache.spark.examples.SparkPi --master yarn \
spark-examples_2.11-2.4.6.jar \
100

Step 4. 클러스터 상세 설정하기(선택)

클러스터의 HDFS 설정과 속성 정보를 적용할 수 있습니다.HDFS 설정값이 클러스터 구성 설정보다 우선합니다.

4단계: 클러스터 상세 설정에서 정보를 입력하고, [다음] 버튼을 클릭합니다.

이미지 이미지 4단계: 클러스터 상세 설정

항목 설명
HDFS 설정 HDFS 블록 크기
- hdfs-site.xmldfs.blocksize 값 설정
- 1~ 1,024MB 크기로 볼륨 생성(기본값: 128MB)
HDFS 복제 개수
- hdfs-site.xmldfs.blockreplication 값 설정
- 1 ~ 500개로 복제 개수 설정
- 복제 개수는 워커 노드 인스턴스 개수 이하여야 함
클러스터 구성 설정(선택) 클러스터를 구성한 컴포넌트의 설정을 입력
- Json 파일 업로드하거나 설정값 직접 입력

Json 파일

Json 파일

타입 파일명 설명
env hadoop-env Hadoop 컴포넌트 메모리 설정
  mapred-env Job History Server 메모리 설정
  hive-env Hive 메모리 설정
  hbase-env HBase 메모리 설정
  spark-defaults Spark 메모리 설정
  trino-config trino 컴포넌트 메모리 설정
xml core-site Hadoop 컴포넌트 관련 설정
  hdfs-site Hadoop 컴포넌트 관련 설정
  hbase-site HBase 컴포넌트 관련 설정
  httpfs-site Hadoop 컴포넌트 관련 설정
  mapred-site Hadoop 컴포넌트 관련 설정
  yarn-site Hadoop 컴포넌트 관련 설정
  hive-site Hive 관련 설정
  hiveserver2-site Hive 관련 설정
  capacity-scheduler YARN 스케줄러 설정
  tez-site Tez 설정

키-값 쌍으로 설정

코드 예제 cluster_meta_configuration.json

{ "configurations": [
    {
    "classification": "core-site",
    "properties": {
    "fs.swifta.service.kic.credential.id": "credential_id",
    "fs.swifta.service.kic.credential.secret": "credential_secret"
    }
    },
    {
    "classification": "hdfs-site",
    "properties": {
    "dfs.blocksize": "67108864"
    }
    },
    {
    "classification": "hbase-env",
    "properties": {
    "hbase_env_hbase_master_heapsize": "-Xmx2157m",
    "hbase_env_hbase_regionserver_heapsize": "-Xmx2157m"
    }
    }
    ]
}

cluster_meta_configuration.json 설정값

파라미터 타입 설명
configurations List 키-값 쌍
classfication String 파일명
properties String 설정명

env 파일로 설정

env 설정은 정해진 규칙에 따라 설정할 수 있습니다.

env 파일

파일명 설정
hadoop-env hadoop_env_hadoop_heapsize 2048
  hadoop_env_hadoop_namenode_heapsize “-Xmx2048m”
  hadoop_env_hadoop_jobtracker_heapsize “-Xmx1024m”
  hadoop_env_hadoop_tasktracker_heapsize “-Xmx1024m”
  hadoop_env_hadoop_shared_hadoop_namenode_heapsize “-Xmx1024m”
  hadoop_env_hadoop_datanode_heapsize “-Xmx1024m”
  hadoop_env_hadoop_zkfc_opts “-Xmx1024m”
mapred-env mapred_env_hadoop_job_historyserver_heapsize 2000
hive-env hive_env_hive_metastore_heapsize 2048
  hive_env_hiveserver2_heapsize 2048
  hive_env_hadoop_client_opts “-Xmx2048m”
hbase-env hbase_env_hbase_master_heapsize “-Xmx2048m”
  hbase_env_hbase_regionserver_heapsize “-Xmx2048m”
spark-defaults spark_defaults_spark_driver_memory 2g
trino-config trino_jvm_config_heap -Xmx10G

XML 파일로 설정

XML 설정은 다음과 같이 파일 설정이 가능합니다. 각 파일별 링크의 설정을 이용합니다.

XML 파일

파일명 참조 위치 비고
core-site https://hadoop.apache.org/docs/r2.10.1/hadoop-project-dist/hadoop-common/core-default.xml  
hdfs-site https://hadoop.apache.org/docs/r2.10.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml  
httpfs-site https://hadoop.apache.org/docs/r2.10.1/hadoop-hdfs-httpfs/ServerSetup.html  
mapred-site https://hadoop.apache.org/docs/r2.10.1/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml  
yarn-site https://hadoop.apache.org/docs/r2.10.1/hadoop-yarn/hadoop-yarn-common/yarn-default.xml  
capacity-scheduler https://hadoop.apache.org/docs/r2.10.1/hadoop-yarn/hadoop-yarn-site/CapacityScheduler.html yarn 스케줄러 설정
tez-site https://tez.apache.org/releases/0.9.2/tez-api-javadocs/configs/TezConfiguration.html  
hive-site https://cwiki.apache.org/confluence/display/hive/configuration+properties  
hiveserver2-site https://cwiki.apache.org/confluence/display/hive/setting+up+hiveserver2 hiveserver2 전용 설정

Step 5. 서비스 연동 설정하기(선택)

클러스터 서비스 연동에 대한 설정을 적용합니다. Hive 메타스토어의 데이터베이스를 카카오 i 클라우드의 MySQL과 연동하여 새로운 클러스터를 생성하였을 때도 동일한 데이터베이스와 테이블에 접근할 수 있습니다. 또는 카카오 i 클라우드에서 제공하는 Data Catalog 서비스와 연동을 설정할 수 있습니다.

안내
서비스 연동을 하지 않을 경우 표준(Single) 타입은 마스터 1번 노드에, HA 타입은 마스터 3번 노드에 자체적으로 MySQL을 설치하여 메타스토어로 사용하게 됩니다.

5단계: 서비스 연동 설정에서 모니터링 에이전트 설치 여부를 선택하고, 서비스 연동을 설정합니다,

이미지 이미지 5단계: 서비스 연동 설정

항목 설명
모니터링 에이전트 설치 모니터링 에이전트 설치 여부를 선택
서비스 연동 연동하지 않음 / 외부 Hive 메타 스토어 연동/ Data Catalog 연동 중 선택

모니터링 에이전트 설치

모니터링 에이전트 설치 시, Hadoop Eco > 클러스터 상세 페이지 > 모니터링 탭에서 Nodes 모니터링을 추가로 확인할 수 있습니다.

  • 노드별 CPU 사용량(%)
  • 노드별 Memory 사용량(%)

외부 Hive 메타스토어 연동

  1. 메타스토어 연동을 위해 먼저 Hive용 데이터베이스를 생성합니다.

    코드 예제 Hive용 데이터베이스 생성 쿼리

    -- 사용자 생성
    CREATE USER IF NOT EXISTS 'hive_user'@'%' IDENTIFIED BY 'hive_passwd';
    GRANT ALL PRIVILEGES ON *.* TO 'hive_user'@'%' WITH GRANT OPTION;
            
    -- 데이터베이스 생성
    CREATE DATABASE IF NOT EXISTS hive_db;
    GRANT ALL PRIVILEGES ON hive_db.* TO 'hive_user'@'%' WITH GRANT OPTION;
    
  2. 5단계: 서비스 연동 설정에서 외부 Hive 메타 스토어(My SQL) 연동을 선택합니다.
  3. Hive 메타 스토어 연동에 필요한 정보를 입력합니다.

    이미지 이미지 5단계: 서비스 연동 설정

    구분 설명
    인스턴스 이름 KiC MySQL이 설치된 인스턴스 선택
    MySQL 데이터베이스 이름 MySQL에 생성한 데이터베이스 이름
    MySQL 아이디 생성한 데이터베이스에 접근하기 위한 아이디
    MySQL 비밀번호 생성한 데이터베이스에 접근하기 위한 비밀번호

Data Catalog 연동

  1. Data Catalog 연동하기 위해 사전에 생성한 Data Catalog를 준비합니다.
  2. Object Storage와 연동하기 위해 클러스터 만들기 > 4단계: 클러스터 상세 설정(선택)에서 클러스터 구성 설정(선택)에 core-site.xml 정보를 추가합니다.
    • Object Storage 연동에 대한 자세한 설명은 Object Storage 연동을 참고하시기 바랍니다.

      이미지. Hadoop Eco 생성하기 - 4단계 이미지 Hadoop Eco 생성하기 - 4단계

      코드 예제 Object Storage 연결 정보

      {
          "configurations":
          [
              {
                  "classification": "core-site",
                  "properties":
                  {
                      "fs.swifta.service.kic.credential.id": "credential_id",
                      "fs.swifta.service.kic.credential.secret": "credential_secret"
                  }
              }
          ]
      }
      
      
  3. Data Catalog와 연동하기 위해 클러스터 만들기 > 5단계: 서비스 연동 설정(선택)에서 Data Catalog 연동을 설정합니다.
    • 서비스 연동 항목에서 Data Catalog 연동을 클릭합니다.
    • Data Catalog 연동 항목에서 하둡 네트워크/서브넷 정보를 확인 후, 원하는 카탈로그를 선택합니다.

    이미지. Hadoop Eco 생성하기 - 5단계 이미지 Hadoop Eco 생성하기 - 5단계

Step 6. 검토하기

클러스터를 만들기 위해 입력한 모든 내용을 검토한 후, 클러스터를 생성합니다.

6단계: 검토에서 정보를 검토하고, [만들기] 버튼을 클릭합니다.

  • [만들기] 버튼 클릭 시 인스턴스 생성을 요청하고 인스턴스 목록 페이지로 이동합니다.
  • 이전 단계의 내용을 수정할 경우, [이전] 버튼 또는 좌측의 각 단계를 클릭합니다.

이미지 이미지 6단계: 검토