본문으로 건너뛰기

Kafka를 통한 CDC Pipeline 구축하기

카카오클라우드 MySQL 서비스에서 발생하는 데이터 변경사항을 실시간으로 추적하기 위한 CDC(Change Data Capture) 환경 구성 방법을 설명합니다.

안내
  • 예상 소요 시간: 60분
  • 사용자 환경
    • 권장 운영 체제: MacOS, Ubuntu
    • Region: kr-central-2
  • 사전 준비 사항

시나리오 소개

본 튜토리얼은 카카오클라우드 MySQL 서비스에서 발생하는 데이터 변경사항을 실시간으로 추적하고 이를 Advanced Managed Kafka를 통해 스트리밍하는 CDC(Change Data Capture) 환경을 구축하는 과정을 안내합니다. 이를 활용하면 전자상거래, 금융 서비스, 데이터 웨어하우스 등의 분야에서 데이터베이스의 변경사항을 다양한 분석 및 데이터 처리 시스템으로 실시간으로 전달할 수 있습니다.

주요 내용은 아래와 같습니다.

  • MySQL에서 발생하는 데이터 변경(삽입, 수정, 삭제)을 Debezium을 통해 감지
  • 감지된 변경 데이터를 Kafka로 스트리밍하여 실시간으로 전달
  • 전달받은 데이터를 Druid에 저장하고 분석
  • Superset을 이용해 변경 이력을 실시간 대시보드 형태로 시각화

이미지 시나리오 아키텍처

용어 정리
  • CDC (Change Data Capture): 데이터베이스에서 발생하는 변경 사항을 실시간으로 감지하고 추적하는 기술
  • Debezium: MySQL과 같은 데이터베이스의 변경 사항을 감지하여 Kafka로 전달하는 오픈소스 CDC 플랫폼
  • Kafka Connect: 다양한 데이터 소스를 Kafka와 연결하여 실시간 데이터 스트리밍을 지원하는 Kafka의 데이터 통합 프레임워크

시작하기 전에

1. VPC와 서브넷 설정

CDC 파이프라인의 각 구성 요소들이 안전하게 통신할 수 있는 격리된 네트워크 환경을 구성합니다. VPC와 서브넷을 생성하여 외부 접근으로부터 보호하고, 내부 구성 요소들 간의 원활한 통신을 가능하게 합니다.

  1. 카카오클라우드 콘솔 > Beyond Networking Service > VPC 메뉴로 이동합니다.

  2. 우측의 [VPC 생성] 버튼을 클릭하여 새로운 VPC를 생성합니다.

    VPC: tutorial-cdc-vpc
    구분항목입력값
    VPC 정보VPC 이름tutorial-cdc-vpc
    VPC IP CIDR 블록10.0.0.0/16
    Availability Zone가용 영역 개수2
    첫 번째 AZkr-central-2-a
    두 번째 AZkr-central-2-b
    서브넷 설정가용 영역당 퍼블릭 서브넷 개수1
    가용 영역당 프라이빗 서브넷 개수0
    kr-central-2-a 퍼블릭 서브넷 IPv4 CIDR 블록10.0.0.0/20
    kr-central-2-b 퍼블릭 서브넷 IPv4 CIDR 블록10.0.16.0/20
  3. 하단의 [생성] 버튼을 클릭합니다.

2. 보안 그룹 설정

CDC 파이프라인의 보안을 위해 네트워크 접근 정책을 구성합니다. 내부적으로는 MySQL, Advanced Managed Kafka, Hadoop Eco 구성요소들 간의 안전한 통신을 허용하고, 외부에서는 관리 목적으로 특정 IP에서만 접근 가능하도록 제한하는 보안 그룹을 설정합니다.

  1. 카카오클라우드 콘솔 > Beyond Networking Service > VPC 메뉴에서 보안 그룹을 선택합니다.

  2. [보안 그룹 생성] 버튼을 클릭하여 새로운 보안 그룹을 생성합니다.

  3. 아래와 같이 보안 그룹을 구성합니다.

    항목설정값
    이름tutorial-cdc-sg
    설명CDC Pipeline 보안 정책
  4. 인바운드 규칙을 다음과 같이 구성합니다. 먼저 사용자의 Public IP에 대한 접근을 허용합니다.

    나의 퍼블릭 IP 확인하기

    다음 버튼을 클릭하면 현재 사용 중인 나의 퍼블릭 IP를 확인할 수 있습니다.

    항목설정값비고
    프로토콜ALL모든 프로토콜 허용
    출발지{사용자 퍼블릭 IP}/32
    포트 번호ALL
    정책 설명(선택)Allow Access from User Public IP
  5. 보안 그룹 생성 후, 보안 그룹 상세 페이지에서 인바운드 규칙 관리 버튼 클릭 후 다음 인바운드 규칙을 구성합니다.

    항목설정값비고
    프로토콜ALL모든 프로토콜 허용
    출발지@tutorial-cdc-sg동일 보안 그룹 내부 통신 허용
    포트 번호ALL
    정책 설명(선택)Internal SG Access

3. MySQL 인스턴스 그룹 생성

CDC 파이프라인이 추적할 원본 데이터베이스를 설정합니다. 여기서는 사용자 정보를 관리하는 테이블을 생성하고, Debezium이 변경사항을 감지할 수 있도록 필요한 데이터베이스 설정을 구성합니다. 생성된 테이블에서 발생하는 모든 데이터 생성(INSERT), 수정(UPDATE), 삭제(DELETE) 작업이 실시간으로 감지되어 파이프라인으로 전달됩니다.

  1. 카카오클라우드 콘솔 > Data Store > MySQL > Instance Group 메뉴로 이동합니다.

  2. [인스턴스 그룹 생성] 버튼을 클릭하여 새로운 MySQL 인스턴스를 생성합니다. 아래에서 언급되지 않은 설정은 기본값을 유지합니다.

    항목설정값
    인스턴스 그룹 이름tutorial-cdc-mysql
    인스턴스 가용성단일
    MySQL 사용자 이름admin
    MySQL 비밀번호admin123
    VPCtutorial-cdc-vpc
    Subnetmain
    자동 백업 옵션사용

4. Debezium Connector 설치를 위한 VM 생성

MySQL의 데이터 변경사항을 감지하고 Kafka로 전송하는 Debezium Connector를 실행하기 위한 VM 환경을 구성합니다.

키 페어 설정

  1. 카카오클라우드 콘솔 > Beyond Compute Service > Virtual Machine > 키 페어 메뉴로 이동합니다.

  2. [키 페어 생성] 버튼을 클릭하여 새로운 키 페어를 생성합니다.

    • 이름: tutorial-cdc-keypair
    warning

    생성된 키 페어(.pem 파일)는 최초 1회만 다운로드 가능하며, 안전한 곳에 보관해야 합니다. 잃어버린 키는 복구할 수 없으며, 재발급이 필요합니다.

VM 인스턴스 생성

  1. 카카오클라우드 콘솔 > Beyond Compute Service > Virtual Machine > 인스턴스 메뉴로 이동합니다.

  2. [인스턴스 생성] 버튼을 클릭하여 다음과 같이 VM을 생성합니다. 아래에서 언급되지 않은 설정은 기본값을 유지합니다.

    구분항목설정값비고
    기본 정보이름tutorial-cdc-vm
    이미지OSUbuntu 22.04
    인스턴스 유형t1i.small
    볼륨루트 볼륨30 GBSSD
    키 페어tutorial-cdc-keypair
    네트워크VPCtutorial-cdc-vpc
    보안 그룹tutorial-cdc-sg
    서브넷main

5. Advanced Managed Kafka 클러스터 생성

CDC를 통해 포착된 데이터 변경사항을 실시간으로 스트리밍하고 다른 시스템으로 전달하기 위한 Advanced Managed Kafka 클러스터를 구성합니다.

  1. 카카오클라우드 콘솔 > Analytics > Advanced Managed Kafka > 클러스터 메뉴로 이동합니다.

  2. [클러스터 생성] 버튼을 클릭한 후, 다음과 같이 클러스터를 생성합니다. 아래에서 언급되지 않은 설정은 기본값을 유지합니다.

    구분항목설정값비고
    기본 설정클러스터 이름tutorial-cdc-kafka
    인스턴스 유형r2a.2xlarge
    네트워크VPCtutorial-cdc-vpc
    서브넷main, {VPC_ID}_sn_1 (10.0.16.0/20)
    보안 그룹tutorial-cdc-sg
    브로커 구성브로커 수2가용 영역당 1개씩 배포

6. Hadoop Eco 클러스터 생성

Kafka로부터 전달받은 데이터 변경사항을 저장하고 분석하기 위한 Druid와, 이를 시각화하기 위한 Superset을 포함한 분석 환경을 구성하기 위해 Hadoop Eco Dataflow 타입 클러스터를 생성합니다.

  1. 카카오클라우드 콘솔 > Analytics > Hadoop Eco > Cluster 메뉴로 이동합니다.

  2. [클러스터 생성] 버튼을 클릭하여 다음과 같이 클러스터를 생성합니다.

    1단계: 클러스터 설정
    구분항목설정값
    기본 정보클러스터 이름tutorial-cdc-dataflow
    클러스터 구성클러스터 타입Dataflow
    관리자 설정관리자 아이디admin
    관리자 비밀번호admin123!
    VPC 설정VPCtutorial-cdc-vpc
    서브넷main
    시큐리티 그룹 구성기존에 생성된 시큐리티 그룹 중에 선택
    시큐리티 그룹 이름tutorial-cdc-sg
    2단계: 인스턴스 설정
    구분항목설정값
    마스터 노드 설정마스터 노드 인스턴스 타입m2a.xlarge
    워커 노드 설정워커 노드 인스턴스 타입m2a.xlarge
    키 페어tutorial-cdc-keypair
    3단계: 상세 설정

    상세 설정은 변경하지 않고 생성 버튼을 눌러 Hadoop Eco Dataflow 타입 클러스터를 생성합니다.

시작하기

Step 1. Public IP 설정

CDC 파이프라인 구성을 위해서는 VM 인스턴스와 Hadoop Eco 클러스터에 외부에서 접근할 수 있어야 합니다. 이를 위해 각 인스턴스에 퍼블릭 IP를 부여하고, 이후 SSH 접속 및 웹 인터페이스 접근에 사용합니다.

VM 인스턴스 Public IP 할당
  1. 카카오클라우드 콘솔 > Virtual Machine 메뉴로 이동합니다.

  2. 인스턴스 탭에서 tutorial-cdc-vm 인스턴스 이름을 클릭합니다.

  3. 우측의 [인스턴스 작업] 버튼을 클릭 후 [퍼블릭 IP 연결] 버튼을 클릭합니다.

  4. 퍼블릭 IP 연결 창에서 별도 수정 없이 [확인] 버튼을 클릭합니다.

Hadoop Eco Master Node Public IP 할당
  1. 카카오클라우드 콘솔 > Virtual Machine 메뉴로 이동합니다.

  2. 인스턴스 탭에서 HadoopMST-tutorial-cdc-dataflow-1 인스턴스 이름을 클릭합니다.

  3. 우측의 [인스턴스 작업] 버튼을 클릭 후 [퍼블릭 IP 연결] 버튼을 클릭합니다.

  4. 퍼블릭 IP 연결 창에서 별도 수정 없이 [확인] 버튼을 클릭합니다.

정보

연결된 퍼블릭 IP는 인스턴스 목록 또는 인스턴스 이름을 클릭하여 이동한 인스턴스 상세 페이지의 네트워크 탭에서 확인할 수 있습니다.

Step 2. Debezium 서버 환경 구성

CDC 파이프라인 구성에 필요한 기본 소프트웨어와 도구들을 설치하고 환경을 구성합니다. Java, MySQL Client, Kafka 등 필수 구성요소들을 설정합니다.

  1. 로컬 환경의 터미널에서 키 페어 파일이 있는 디렉토리로 이동합니다.

    cd ~/Downloads  # 또는 키 페어 파일이 저장된 디렉토리
  2. 키 페어 파일의 권한을 설정합니다.

    sudo chmod 400 tutorial-cdc-keypair.pem
  3. SSH를 통해 VM에 접속합니다.

    ssh -i tutorial-cdc-keypair.pem ubuntu@${VM_PUBLIC_IP}
    환경변수설명
    VM_PUBLIC_IP🖌VM 인스턴스 > 네트워크 탭에서 확인 가능한 퍼블릭 IP
  4. Java 실행 환경을 설치하고 환경 변수를 구성합니다.

    sudo apt update
    sudo apt install -y openjdk-21-jdk

    # Java 환경변수 설정
    cat << EOF | sudo tee -a /etc/profile
    export JAVA_HOME=/usr/lib/jvm/java-21-openjdk-amd64
    export PATH=\$JAVA_HOME/bin:\$PATH
    export CLASSPATH=\$CLASSPATH:\$JAVA_HOME/lib/ext:\$JAVA_HOME/lib/tools.jar
    EOF

    source /etc/profile
  5. MySQL 데이터베이스 관리를 위한 클라이언트 도구를 설치합니다.

    sudo apt install -y mysql-client
  6. Kafka 클러스터를 관리하기 위한 도구를 설치합니다. Kafka 도구는 클러스터와 동일한 버전으로 설치해야 합니다. 본 튜토리얼에서는 3.7.1 버전을 사용합니다.

    정보

    Kafka 버전별 다운로드는 https://archive.apache.org/dist/kafka/ 에서 확인할 수 있습니다.

    cd ~
    curl https://archive.apache.org/dist/kafka/3.7.1/kafka_2.13-3.7.1.tgz -o kafka_2.13-3.7.1.tgz
    tar -xzf kafka_2.13-3.7.1.tgz
    rm kafka_2.13-3.7.1.tgz
    mv kafka_2.13-3.7.1 kafka

Step 3. Debezium 설정

Debezium은 MySQL의 바이너리 로그를 읽어 데이터 변경사항을 감지하는 CDC 도구입니다. 이 단계에서는 Debezium을 설치하고, MySQL의 변경사항을 Kafka로 전송할 수 있도록 구성합니다. 이를 통해 데이터베이스의 모든 변경사항을 실시간으로 포착할 수 있게 됩니다.

  1. Debezium MySQL 커넥터 플러그인을 다운로드하고 설치합니다.

    mkdir -p ~/kafka/plugins
    wget https://repo1.maven.org/maven2/io/debezium/debezium-connector-mysql/3.0.2.Final/debezium-connector-mysql-3.0.2.Final-plugin.tar.gz
    tar -xzf debezium-connector-mysql-3.0.2.Final-plugin.tar.gz -C ~/kafka/plugins/
    rm debezium-connector-mysql-3.0.2.Final-plugin.tar.gz
  2. Kafka Connect 분산 모드 설정을 구성합니다.

    cat << EOF > /home/ubuntu/kafka/config/connect-distributed.properties
    bootstrap.servers=${KAFKA_BOOTSTRAP_SERVERS}
    group.id=connect-cluster
    key.converter=org.apache.kafka.connect.json.JsonConverter
    value.converter=org.apache.kafka.connect.json.JsonConverter
    key.converter.schemas.enable=false
    value.converter.schemas.enable=false
    plugin.path=/home/ubuntu/kafka/plugins
    offset.storage.topic=connect-offsets
    offset.storage.replication.factor=1
    config.storage.topic=connect-configs
    config.storage.replication.factor=1
    status.storage.topic=connect-statuses
    status.storage.replication.factor=1
    auto.create.topics.enable=true
    EOF
    환경변수설명
    KAFKA_BOOTSTRAP_SERVERS🖌Advanced Managed Kafka > 클러스터의 부트스트랩 서버 주소
  3. 시스템 서비스로 등록하여 항상 실행되도록 설정합니다.

    sudo sh -c 'cat << EOF > /etc/systemd/system/kafka-connect.service
    [Unit]
    Description=Kafka Connect Distributed
    Documentation=http://kafka.apache.org/
    After=network.target kafka.service

    [Service]
    Type=simple
    User=ubuntu
    Environment="KAFKA_HEAP_OPTS=-Xms128M -Xmx512M"
    ExecStart=/home/ubuntu/kafka/bin/connect-distributed.sh /home/ubuntu/kafka/config/connect-distributed.properties
    Restart=always
    RestartSec=10

    [Install]
    WantedBy=multi-user.target
    EOF'

    sudo systemctl daemon-reload
    sudo systemctl start kafka-connect
    sudo systemctl enable kafka-connect

  4. 다음 명령어를 실행하여 kafka-connect 서비스가 running 상태인지 확인합니다. 상태 확인 후 Ctrl + C를 눌러 종료합니다.

    sudo systemctl status kafka-connect

Step 4. MySQL 데이터베이스 설정

CDC의 소스가 되는 MySQL 데이터베이스와 테이블을 생성하고 초기 데이터를 설정합니다. 이는 데이터 변경사항을 추적할 기반 환경을 구성하는 단계입니다.

  1. MySQL 서버에 원격으로 접속합니다.

    mysql -h ${MYSQL_ENDPOINT} -u admin -padmin123
    환경변수설명
    MYSQL_ENDPOINT🖌MySQL 인스턴스의 엔드포인트
  2. CDC 테스트를 위한 데이터베이스와 테이블을 생성합니다.

    CREATE DATABASE `cdc-database`;
    USE `cdc-database`;

    CREATE TABLE `cdc-table` (
    id BIGINT NOT NULL AUTO_INCREMENT,
    name VARCHAR(100),
    email VARCHAR(200),
    status ENUM('active', 'inactive') DEFAULT 'active',
    created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
    updated_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
    PRIMARY KEY (id)
    );
  3. MySQL 접속을 종료하려면 다음 명령어를 입력합니다.

    exit

Step 5. Debezium Connector 구성 및 MySQL 테스트 데이터 생성

MySQL의 변경사항을 감지하고 Kafka로 전송하기 위한 Debezium 커넥터를 상세 설정합니다. 이를 통해 데이터 변경사항의 실시간 캡처가 가능해집니다.

  1. 커넥터 설정 파일을 생성하고 필요한 파라미터를 구성합니다.

    sudo mkdir -p /home/ubuntu/kafka/config/connectors
    sudo tee /home/ubuntu/kafka/config/connectors/mysql-connector.json << 'EOF'
    {
    "name": "mysql-connector",
    "config": {
    "connector.class": "io.debezium.connector.mysql.MySqlConnector",
    "tasks.max": "1",
    "database.hostname": "${MYSQL_ENDPOINT}",
    "database.port": "3306",
    "database.user": "admin",
    "database.password": "admin123",
    "database.server.id": "1",
    "topic.prefix": "mysql-server",
    "database.include.list": "cdc-database",
    "table.include.list": "cdc-database.cdc-table",
    "schema.history.internal.kafka.bootstrap.servers": "${KAFKA_BOOTSTRAP_SERVERS}",
    "schema.history.internal.kafka.topic": "schema-changes.mysql",
    "topic.creation.enable": "true",
    "topic.creation.default.replication.factor": "1",
    "topic.creation.default.partitions": "1",
    "tombstones.on.delete": "true"
    }
    }
    EOF
    환경변수설명
    MYSQL_ENDPOINT🖌MySQL 인스턴스의 엔드포인트
    KAFKA_BOOTSTRAP_SERVERS🖌Kafka 클러스터의 부트스트랩 서버 주소
  2. REST API를 통해 커넥터를 생성합니다.

    curl -X POST -H "Content-Type: application/json" \
    --data @/home/ubuntu/kafka/config/connectors/mysql-connector.json \
    http://localhost:8083/connectors
  3. mysql-connector의 상태를 확인하기 위해 다음 명령어를 실행합니다.

    curl -X GET http://localhost:8083/connectors/mysql-connector/status

    커넥터가 정상적으로 동작 중이면 "state": "RUNNING" 상태가 표시됩니다.

  4. mysql-connector이 정상 동작할 경우, MySQL 서버에 원격으로 접속합니다.

    mysql -h ${MYSQL_ENDPOINT} -u admin -padmin123
    환경변수설명
    MYSQL_ENDPOINT🖌MySQL 인스턴스의 엔드포인트
  5. kafka 토픽 생성 및 테스트 데이터 생성을 위해 다음 쿼리를 실행합니다.

    USE `cdc-database`;

    INSERT INTO `cdc-table` (name, email) VALUES
    ('John Doe', 'john.doe@example.com'),
    ('Jane Smith', 'jane.smith@example.com'),
    ('Bob Johnson', 'bob.johnson@example.com'),
    ('Alice Brown', 'alice.brown@example.com'),
    ('Charlie Wilson', 'charlie.wilson@example.com');
  6. MySQL 접속을 종료하려면 다음 명령어를 입력합니다.

    exit

Step 6. Druid 연동 및 MySQL 쿼리 실행

Kafka로 전송된 데이터 변경사항을 실시간으로 저장하고 분석하기 위해 Druid를 구성합니다. 이를 통해 데이터의 실시간 처리와 분석이 가능해집니다.

  1. Hadoop Eco > Cluster > tutorial-cdc-dataflow > [Druid URL]을 통해 Druid에 접속합니다.

    http://${MASTER_NODE_PUBLIC_IP}:3008
    환경변수설명
    MASTER_NODE_PUBLIC_IP🖌Hadoop Eco 마스터 노드의 퍼블릭 IP
  2. 메인 화면 상단의 Load Data > Streaming 버튼을 클릭합니다. 우측 상단의 [Edit Spec] 버튼을 클릭합니다.

  3. 아래 JSONbootstarp.servers에 Kafka 클러스터의 부트스트랩 서버 주소를 붙여 넣은 뒤 [Submit] 버튼을 클릭합니다.

    {
    "type": "kafka",
    "dataSchema": {
    "dataSource": "user_changes",
    "timestampSpec": {
    "column": "created_at",
    "format": "iso"
    },
    "dimensionsSpec": {
    "dimensions": [
    "id",
    "name",
    "email",
    "status",
    "operation_type",
    "updated_at",
    {
    "name": "__deleted",
    "type": "boolean"
    }
    ]
    },
    "granularitySpec": {
    "type": "uniform",
    "segmentGranularity": "DAY",
    "queryGranularity": "MINUTE",
    "rollup": false
    }
    },
    "tuningConfig": {
    "type": "kafka",
    "maxRowsPerSegment": 5000000,
    "maxBytesInMemory": 25000000
    },
    "ioConfig": {
    "topic": "mysql-server.cdc-database.cdc-table",
    "consumerProperties": {
    "bootstrap.servers": "${KAFKA_BOOTSTRAP_SERVERS}",
    "group.id": "druid-user-changes"
    },
    "taskCount": 1,
    "replicas": 1,
    "taskDuration": "PT1H",
    "completionTimeout": "PT20M",
    "inputFormat": {
    "type": "json",
    "flattenSpec": {
    "useFieldDiscovery": false,
    "fields": [
    {
    "type": "jq",
    "name": "id",
    "expr": ".before.id // .after.id"
    },
    {
    "type": "jq",
    "name": "name",
    "expr": ".before.name // .after.name"
    },
    {
    "type": "jq",
    "name": "email",
    "expr": ".before.email // .after.email"
    },
    {
    "type": "jq",
    "name": "status",
    "expr": ".before.status // .after.status"
    },
    {
    "type": "jq",
    "name": "created_at",
    "expr": ".before.created_at // .after.created_at"
    },
    {
    "type": "jq",
    "name": "updated_at",
    "expr": ".before.updated_at // .after.updated_at"
    },
    {
    "type": "jq",
    "name": "operation_type",
    "expr": ".op"
    },
    {
    "type": "jq",
    "name": "__deleted",
    "expr": ".op == \"d\""
    }
    ]
    }
    }
    }
    }
    환경변수설명
    KAFKA_BOOTSTRAP_SERVERS🖌Kafka 클러스터의 부트스트랩 서버 주소
  4. Druid 콘솔의 Ingestion 탭에서 Supervisors > Datasource > user_changes > Status 가 RUNNING인지 확인합니다.

  5. MySQL 서버에 접속하여 데이터를 발생시키고 Druid가 데이터 변경사항을 수집할 수 있도록 합니다.

    mysql -h ${MYSQL_ENDPOINT} -u admin -padmin123
    환경변수설명
    MYSQL_ENDPOINT🖌MySQL 인스턴스의 엔드포인트
  6. 다음 쿼리를 실행하여 Druid가 데이터 변경사항을 정상적으로 수집하는지 테스트합니다.

    USE `cdc-database`;

    UPDATE `cdc-table` SET status = 'inactive' WHERE id IN (2, 4);
    INSERT INTO `cdc-table` (name, email) VALUES ('David Park', 'david.park@example.com');
    DELETE FROM `cdc-table` WHERE id = 3;
  7. MySQL 접속을 종료하려면 다음 명령어를 입력합니다.

    exit
  8. Druid 콘솔의 Datasources 탭에서 새로 생성된 user_changes Datasource를 확인합니다.

Step 7. Superset 연동

수집된 데이터를 시각화하고 모니터링하기 위한 Superset 대시보드를 구성합니다. 이를 통해 데이터 변경사항을 직관적으로 파악하고 분석할 수 있습니다.

  1. Hadoop Eco 클러스터 > 클러스터 정보 > [Superset URL]을 통해 Superset에 접속합니다. 클러스터 생성 시 입력했던 관리자 ID, 비밀번호를 이용하여 로그인합니다.

    http://${MASTER_NODE_PUBLIC_IP}:4000
    환경변수설명
    MASTER_NODE_PUBLIC_IP🖌Hadoop Eco 마스터 노드의 퍼블릭 IP
  2. 상단 메뉴의 [Datasets] 버튼을 클릭합니다. 이후 Druid에서 데이터셋을 가져오기 위해 우측 상단의 [+ DATASET] 버튼을 클릭합니다.

  3. 아래와 같이 데이터베이스와 스키마를 설정합니다. 이후 [CREATE DATASET AND CREATE CHART] 버튼을 클릭합니다.

    항목설정값
    DATABASEdruid
    SCHEMAdruid
    TABLEuser_changes
  4. 원하는 차트들을 선택하고 [CREATE NEW CHART] 버튼을 클릭합니다.

  5. 확인하고 싶은 데이터와 설정값들을 입력하고 [CREATE CHART] 버튼을 클릭하여 차트를 생성하고, 우측 상단의 [SAVE] 버튼을 클릭하여 차트를 저장합니다.