Open API 개요

페이지 이동경로

API 개요

Hadoop Eco Open API는 코드 기반의 프로그래밍 방식으로 자원들을 관리하기 위한 인터페이스입니다.
Hadoop Eco에서 제공하는 API를 통해 카카오 i 클라우드 콘솔 이외의 다양한 방법으로 클러스터 생성 및 조회 등을 처리할 수 있습니다. REST API를 통해 코드 기반으로 카카오 i 클라우드의 Hadoop Eco를 사용할 수 있습니다.

API 공통

  • API 요청에 대한 응답은 JSON 형태로 제공합니다.
  • API 사용을 위해서는 액세스 키, Hadoop Eco 클러스터 API Key가 필요합니다.
  • API 사용 전 사용자 액세스 키를 발급한 후, 조회할 Hadoop Eco 클러스터의 API Key를 받아야 합니다.

사전 작업

Hadoop Eco에서 제공하는 API를 사용하기 위해서는 다음의 사전 작업을 수행해야 합니다.

액세스 키 발급하기

사용자 인증 토큰(API 인증 토큰)을 획득하기 위해서는 먼저 액세스 키를 발급받은 후, 액세스 키 ID와 액세스 보안 키를 발급합니다.

  1. 카카오 i 클라우드 콘솔 > 사용자 프로필 > 사용자 액세스 키 탭에서 사용자의 자격 증명으로 사용자 액세스 키를 발급합니다.

  2. 사용자 액세스 Key를 발급한 후, API 인증 토큰 발급하기를 참고하여 액세스 키 ID와 액세스 보안 키를 발급합니다.

Hadoop Eco 클러스터의 Open API Key 발급하기

클러스터 타입이 Core Hadoop이면서 하단의 조건을 충족하는 클러스터인 경우, Open API Key를 발급할 수 있습니다. 발급받은 API Key를 통해 API Endpoint URL를 호출할 수 있습니다.


클러스터 타입이 Core Hadoop인 경우의 Hadoop Eco 클러스터 API Key 발급 조건

  • 작업 스케줄링 활성화가 Hive 또는 Spark인 경우
  • Hadoop Eco 클러스터의 상태가 Terminated(User Command) 또는 Terminated(User)인 경우


Hadoop Eco 클러스터의 Open API Key 발급 시, 유의 사항

  • 클러스터를 생성하는 과정 중 ‘5단계: 서비스 연동 설정’에서 외부 메타 스토어를 연동하여 생성한 클러스터를 Open API로 사용할 경우, 반드시 외부 메타 스토어와 설정을 그대로 유지해야 합니다.

  • 외부 메타 스토어가 삭제되거나 정보가 변경되는 경우, 클러스터가 제대로 동작하지 않을 수 있습니다.

  • API Key를 삭제하지 않은 상태에서 시큐리티 그룹을 삭제한 경우, API Key를 재발급받으면 시큐리티 그룹이 다시 생성되어 Open API 클러스터를 사용하실 수 있습니다.

안내
콘솔에서 API Key를 발급하는 방법에 대한 자세한 설명은 API Key 발급하기를 참고하시기 바랍니다.

주의
API Key를 발급하면 해당 Open API 클러스터 전용 시큐리티 그룹이 자동으로 생성되며, API Key를 삭제하면 시큐리티 그룹이 삭제됩니다.

API Model

Hadoop Eco의 API Model은 다음과 같습니다.

Model - 클러스터

Data Type 설명
Credential-ID String 사용자 액세스 키 ID
Credential-Secret String 사용자 액세스 보안 키
Hadoop-Eco-Api-Key String Hadoop Eco Api Key
cluster-id String 클러스터 ID
request-id String 요청 ID
workerCnt Integer Hadoop Eco 워커 노드 개수
- 개수: 1 ~ 1000개
workerVolumeSize Integer Hadoop Eco 워커 노드 블록 스토리지 크기
- 크기: 50 ~ 5120GB
configHdfsReplication Integer Hadoop Eco HDFS 복제 개수
- 개수: 1 ~ 500개
configHdfsBlockSize Integer Hadoop Eco HDFS 블록 크기
- 크기: 1 ~ 1024MB
userTaskDeployMode String Hadoop Eco Spark Job Deploy 모드
- 모드: client, cluster
userTaskExecOpts String Hadoop Eco Spark 또는 Hive Job 설정 파라미터
userTaskExecParams String Hadoop Eco Spark Application 파라미터