본문으로 건너뛰기

새로운 카카오클라우드 콘솔 출시

· 약 7분
Sandy (차신영)
Technical Contents Manager
New console update

2026년 3월 13일, 1년여간의 치열한 협업과 고민을 담은 새로운 콘솔이 출시되었습니다. 🎉
"한 화면에서 최대한 많은 정보와 기능을 미리 보고 싶어요" 고객이 전해주신 이 한마디가 카카오클라우드 콘솔 대개편의 시작점이었는데요.

이번 콘솔 개편은 단순한 UI/UX 리디자인이 아니라, 성능 구조, 데이터 처리 방식, 화면 설계 철학까지 아울러 카카오클라우드 콘솔 전반을 다시 재설계했다는 점에서 의미가 큽니다. 화면 이동을 최소화하고, 필요한 기능을 미리 예측해 배치하고, 변경 사항을 실시간으로 반영하는 콘솔, 이제 새로운 카카오클라우드 콘솔에서 가능해졌습니다.

데이터 중심 콘솔로 재구성

이번 개편의 핵심은 새로운 콘솔이 데이터 중심 콘솔(Data-centric Console)이라는 설계 원칙을 기반으로 재구성되었다는 점입니다.
새로운 콘솔에서는 서비스의 복잡도가 높아져도 운영 효율이 떨어지지 않도록 정보 밀도를 정밀하게 재설계했습니다.
폰트 크기, 자간, 행간을 픽셀 단위로 최적화하여 불필요한 화이트스페이스를 제거하고, 스크롤 없이도 핵심 지표를 한눈에 식별할 수 있는 환경을 조성했습니다.
또한 미적인 디자인보다는 데이터의 위계와 가독성을 우선하는 디자인 가이드라인을 적용하여, 운영자가 수많은 리소스 사이에서 작업 흐름과 맥락을 유지하도록 했습니다.
새로운 콘솔에서 달라진 주요 기능을 살펴보겠습니다.

커스텀이 가능한 대시보드

카카오클라우드 콘솔에 로그인하면 가장 먼저 진입하는 화면은 '대시보드'입니다. 기존 대시보드는 고정된 정보만 제공되어 사용자 맞춤 구성이 어려운 부분이 있었습니다. 새로운 콘솔에서는 대시보드를 ‘위젯’ 기반으로 재설계하여, 사용자는 본인에게 필요한 정보 카드를 자유롭게 추가, 삭제하거나 드래그 앤 드롭 방식으로 재배치할 수 있습니다.
특히 콘솔을 모니터링 화면으로 상시 활용하는 고객 사용 패턴을 반영해, 운영 관점에서 주요 서비스 정보 또는 유용한 정보를 한눈에 파악할 수 있는 구조를 완성했습니다.

2 위젯 기반의 대시보드 구성

리소스 탐색 경험 개선

리소스 정보를 한 화면에서 탐색할 수 있는 화면 편의 기능도 대폭 추가되었습니다.
기존 콘솔에서는 리소스의 상세 정보를 확인하려면 리소스를 선택할 때마다 화면이 전환되어 작업 흐름이 끊기는 불편이 있었습니다. 새로운 콘솔에서는 화면 전환 없이 우측 패널 또는 하단 패널에서 리소스 상세 정보를 바로 확인할 수 있습니다.
탐색과 상세 확인을 반복할 때 발생하는 화면 전환 부담을 줄이고, 연속적인 작업 흐름을 지원해 운영 효율성을 높였습니다.

3 하단 패널 표시(우측 상단 설정 > 리소스 목록 화면 옵션 활성화 시)

3 우측 패널 표시(우측 상단 설정 > 상세 화면 옵션 활성화 시)

또한, 여러 리소스를 빠르게 비교해야 할 경우에도, 하단 패널에서 리소스의 상태 정보를 비교해서 파악할 수 있습니다. 3 리소스 2개를 선택 시 하단 패털에서 상세 정보 조회

리소스 상세 페이지 조회 방식도 개선되었습니다. 기존에는 화면 전환이 이루어지는 탭 구조였다면, 새로운 콘솔에서는 전체 스크롤 형식으로 변경해 한 페이지에서 모든 정보를 확인할 수 있습니다. 상단에는 앵커 탭을 제공해 원하는 정보 영역으로 빠르게 이동할 수 있습니다.

리소스 작업 방식도 더 직관적으로 바뀌었습니다. 기존에는 테이블 우측 끝의 더보기 버튼을 클릭해야 작업 메뉴를 확인할 수 있었지만, 새로운 콘솔에서는 테이블에서 원하는 리소스 행 위에서 마우스 우클릭만으로 더보기와 동일한 컨텍스트 메뉴를 바로 열 수 있습니다.

이미지 테이블 내 컨텍스트 메뉴 지원 (우측 상단 설정 > 테이블 내 컨텍스트 메뉴 지원 활성화 시)

테이블 제어 기능

리소스 목록 화면에서는 테이블 표현 방식을 세밀하게 조정할 수 있는 기능을 지원합니다. '텍스트 말줄임'과 '컴팩트 모드'를 통해 한 화면에 더 많은 데이터를 밀도감있게 표시할 수 있으며, 컬럼 구성, 헤더 길이와 너비도 조정할 수 있습니다.
사용자가 데이터 밀도를 직접 제어할 수 있도록 하여, 데이터 중심 콘솔 철학을 UI 수준에서 구현했습니다. 단순한 조회를 넘어, 사용자가 직접 데이터의 노출 방식을 제어함으로써 데이터 중심 콘솔의 철학을 UI 레이어에 담아냈습니다.

1 리소스 목록 화면

직관적인 토폴로지

기존에 제공되던 토폴로지 기능도 사용자 탐색 경험을 개선하는 방향으로 업데이트되었습니다. 토폴로지 내에서 리소스 카드를 선택하면 별도의 화면 이동 없이 패널에서 바로 상세 정보를 확인할 수 있습니다. 또한 리소스 정렬, 확대/축소 등의 편의 기능이 추가되었으며, 리소스 간 관계를 더욱 직관적으로 표현하여 서비스 구성 요소와 리소스 구조를 한눈에 파악할 수 있도록 개선했습니다.

3 확대/축소, 정렬 기능 등이 추가된 토폴로지

검색/화면 접근성 개선

운영 환경에서 콘솔을 사용하는 사용자들의 실제 사용 패턴을 반영해 여러 편의 기능도 추가했습니다.
대표적으로 각 리소스 목록 화면에서 Enter 키를 누르면 즉시 검색 필터가 열리도록 변경하여 검색을 더욱 빠르게 수행할 수 있도록 했습니다.
또한 좌측 네비게이션(LNB)에 접기/펼치기 기능이 추가되어 화면 공간을 보다 효율적으로 사용할 수 있습니다. 작은 화면이나 모바일 환경에서도 리소스 테이블을 보다 넓게 확인할 수 있어 긴급 대응 상황에서도 활용성을 높였습니다. 또한, 자주 사용하는 서비스는 즐겨찾기 추가를 통해 상단 바에 고정할 수 있으며, 좌측 하단에 최근 사용했던 서비스 목록이 표시되어 자주 사용하는 서비스간 이동이 수월합니다.

3 접기/펼치기 기능

콘솔 전용 데이터 아키텍처 도입

아키텍처 관점에서도 큰 변화가 있었습니다. 기존 콘솔은 서비스 API를 기반으로 화면을 구성하는 구조였습니다. 이 방식은 서비스 개발 관점에서는 자연스러운 방식이었지만, 콘솔에서는 여러 API를 조합하고 가공해 화면을 완성해야 하는 부담이 존재했습니다. 또한 서비스와 리소스가 점차 확장되면서 다수의 API 호출과 실시간 가공 로직이 누적되었고, 일부 로직은 클라이언트나 BFF(Backend for Frontend) 레이어에 집중되었기 때문에 상태 변경 반영 역시 주기적인 Polling에 의존해야 했습니다.

새로운 콘솔은 CDC, ETL, SSE 기반 구조를 도입해 이러한 한계를 개선했습니다. 데이터 변경을 실시간으로 감지하고 콘솔 전용 데이터 계층에 반영한 뒤, SSE(Server-Sent Events)를 통해 즉시 화면에 전달합니다. Read 응답은 1초 미만을 목표로 하며, 리소스 생성 및 상태 변경이 실시간으로 UI에 반영되도록 구현했습니다.

복잡한 비즈니스 로직은 ETL 단계에서 사전 변환하여 저장함으로써 화면 렌더링 시 계산 부담을 최소화했습니다. 이를 통해 API 의존도를 낮추고, 콘솔 관점에서 필요한 데이터를 보다 유연하게 구성할 수 있는 기반을 마련했습니다.

플랫폼으로서의 콘솔

새로운 콘솔은 단순히 여러 서비스를 한곳에서 보여주는 화면이 아니라, '하나의 플랫폼’으로 정의됩니다. 서비스가 계속 확장되더라도 안정적으로 수용할 수 있도록 플랫폼 구조로 설계되었습니다.

각 서비스가 독립적으로 참여할 수 있도록 Module Federation 기반 구조를 도입했으며, 한 서비스의 변경이 전체 콘솔에 미치는 영향을 최소화할 수 있는 제어 장치도 마련했습니다. 이를 통해 새로운 기능을 이전보다 더 빠르게 추가할 수 있는 기반을 갖추게 되었습니다. 공통 레이아웃, 인증, 네비게이션, 디자인 시스템처럼 모든 서비스가 함께 사용하는 영역은 중앙에서 일관되게 관리하고, 각 서비스 팀은 비즈니스 기능 개발에 집중할 수 있도록 역할을 분리했습니다.

이러한 구조는 사용자에게는 어디서나 동일한 사용 경험을 제공하고, 운영 측면에서는 변경 영향 최소화와 점진적 확장을 가능하게 합니다. 또한 업데이트 단위도 더욱 유연해져 서비스별 개선 사항을 독립적으로 배포하기 쉬워졌습니다.

초기 진입 경험도 함께 개선했습니다. 서버에서 먼저 화면을 준비해 전달하는 방식인 SSR(Server-Side Rendering)을 적용해, 첫 랜딩 시 사용자가 느끼는 로딩 부담을 줄이고 더 빠르게 작업을 시작할 수 있도록 했습니다.

마치며

새로운 카카오클라우드 콘솔은 단순한 화면 개편이 아닙니다. 실시간 데이터 반영 구조, 콘솔 전용 데이터 계층, 데이터 중심 UI, 모듈화된 플랫폼 아키텍처를 통해 콘솔의 역할을 재정의한 변화이자 새로운 도전이었습니다. 이제 대시보드에서 어떤 위젯을 배치할지, 테이블은 컴팩트 모드와 일반 모드 중 어떤 방식을 선택할지에 따라 각자의 운영 환경에 맞는 콘솔 경험을 구성할 수 있습니다. 여러분의 카카오클라우드 콘솔에는 어떤 데이터가, 어떤 UI로 담기게 될지 궁금합니다.

이번 3월 13일 릴리즈에서는 Beyond Compute Service (Virtual Machine, Bare Metal Server), Networking (VPC, Load Balancing, DNS, Transit Gateway), Management (IAM) 서비스에 우선 적용되었으며, 나머지 서비스도 순차적으로 전환될 예정입니다.

카카오클라우드 콘솔은 앞으로도 사용자 경험을 중심으로 설계된 운영 플랫폼으로 지속적으로 진화해 나가겠습니다.
감사합니다.

👉 새로운 카카오클라우드 콘솔 시작하기

SSH 접속 불가 인스턴스, OpenAPI를 활용한 문제 해결

· 약 5분
Erin (오예진)
Cloud Engineer
update

운영 중인 서버의 SSH 포트를 변경하다 설정이 뒤엉키거나, 오랜 기간 접속하지 않아 비밀번호를 분실한 상황, 혹은 갑작스러운 파일 시스템 오류로 부팅이 되지 않는 순간... 클라우드 운영자라면 누구나 한 번쯤 겪어봤을 아찔한 경험입니다.

새로 설정한 포트로도 접속되지 않고, 기존 22번 포트마저 닫혀버려 Connection refusedConnection timeout 메시지만 무심히 반복될 때, 인스턴스는 그야말로 '살아있지만 제어할 수 없는' 고립 상태가 됩니다.

이처럼 인스턴스는 Active 상태이나 내부로 진입할 방법이 없는 절망적인 상황에서, 카카오클라우드 기술문서의 문제 해결 가이드를 바탕으로 OpenAPI를 활용해 데이터 손실 위험을 최소화하며 복구할 수 있는 두 가지 방법을 소개해 드립니다.

💡 방법 1. 사용자 스크립트(user_data)로 자동 복구하기

이 방법은 SSH 포트 설정 오류, SELinux 정책 미등록, 혹은 SSH 비밀번호 분실 같은 '소프트웨어 설정' 이슈가 발생했을 때 특히 유용합니다. 문제가 발생한 인스턴스 내부에서 해결을 시도하는 In-place(기존 환경 수정) 방식 대신, 정상적인 설정이 담긴 스크립트로 자원을 재생성하는 Immutable(불변) 인프라 기반의 교체 방식을 지향합니다.

📍 복구 흐름
기존 인스턴스 이미지 생성 → 복구용 사용자 스크립트 작성 → 스크립트를 주입한 신규 인스턴스 프로비저닝

🩺 세부 점검 및 복구 절차

Step 1. 스냅샷 생성: 인스턴스 상세 조회(Get instance)로 기존 스펙을 확인한 뒤, 이미지 생성(Create image)으로 현재 루트 볼륨의 상태를 이미지로 만듭니다.
- Tip: 메모리의 잔여 데이터까지 안전하게 기록될 수 있도록, 인스턴스 정지(Stop) 후 진행하는 것을 권장합니다.

Step 2. 복구 스크립트 작성: 22번 포트로 원복하거나, 새로운 비밀번호/키페어를 설정하는 내용을 담은 사용자 스크립트(user_data)를 작성합니다. 이 스크립트는 인스턴스 최초 부팅 시 실행되며, API 요청을 위해 Base64 형식으로 인코딩해야 합니다.

Step 3. 인스턴스 프로비저닝: 앞서 생성한 이미지에 복구 스크립트를 실어 인스턴스 생성(Create instance)을 호출합니다. 인스턴스가 생성됨과 동시에 주입된 스크립트가 실행되어, 막혔던 포트 설정을 교정하거나 계정 접속 권한을 즉시 회복합니다.

이 방식은 운영자가 인스턴스 내부에 진입할 수 없는 '고립된 상황'이라도 외부에서 원격으로 설정을 자동 교정할 수 있다는 것이 가장 큰 장점입니다. 장애가 발생한 인스턴스를 직접 수리하기보다, 검증된 환경으로 신속히 교체함으로써 복구 목표 시간(RTO)을 획기적으로 단축할 수 있습니다.

▶︎ SSH 포트 변경 후 접속 불가 복구 문제 해결 가이드

💡 방법 2. 루트 볼륨 직접 점검 활용하기

사용자 스크립트만으로 해결되지 않는 파일 시스템 손상이나 네트워크 구성 파일 오류는 조금 더 직접적인 접근이 필요합니다. 문제가 생긴 볼륨을 잠시 '서브 디스크'로 돌려 엔지니어가 직접 내용을 수정하는 일종의 구조 모드 전략입니다.

📍 복구 흐름
루트 볼륨 스냅샷 생성 → 점검용 인스턴스 연결(Attach) → 데이터 교정(Repair) 및 분리(detach) → 신규 인스턴스 복구

🩺 세부 점검 및 복구 절차

Step 1. 볼륨 스냅샷 및 복원: 원본 데이터 훼손을 막기 위해 문제가 된 루트 볼륨의 스냅샷을 생성(Create snapshot)하고, 이를 기반으로 새로운 볼륨을 복원(Restore snapshot)합니다. 이 과정을 통해 안전한 작업 환경을 확보합니다.

Step 2. 점검용 볼륨 연결: 정상 동작 중인 다른 인스턴스를 '구조대'로 지정하고, 위에서 복원된 볼륨을 해당 인스턴스에 볼륨 연결(Attach volume)합니다.

Step 3. 데이터 마운트 및 교정: 점검용 인스턴스에서 해당 볼륨을 마운트하여 문제가 된 지점을 직접 수정합니다. 주요 점검 및 조치 사항은 다음과 같습니다.

  • 네트워크: /etc/netplan 또는 /etc/sysconfig/network-scripts 내 설정 파일의 오타나 구성 오류를 즉시 수정합니다.
  • 파일 시스템: 마운트 해제 후 xfs_repair 또는 fsck 등의 명령어를 통해 디스크 오류 검사 및 복구를 진행합니다. 이 외에도 시스템 로그 및 구성 환경에 따라 다양한 원인이 있을 수 있으므로 정밀한 진단이 필요합니다.

Step 4. 이미지 생성 및 프로비저닝: 문제를 해결한 볼륨을 다시 분리 (Detach volume)한 뒤, 해당 볼륨을 기반으로 새로운 이미지를 생성합니다. 마지막으로 이 이미지를 사용하여 정상화된 신규 인스턴스를 배포하면 복구가 완료됩니다.

이 방식의 핵심은 장애 인스턴스를 무리하게 복구하는 대신, 정상 인스턴스의 환경을 활용해 문제가 되는 부분(파일 시스템과 네트워크 설정 등)을 직접 수정하는 데 있습니다. 모든 수정이 완료된 볼륨은 다시 이미지화되어, 결함이 해소된 상태의 신규 인스턴스로 재배포됩니다.

▶︎ 루트 볼륨 점검을 통한 인스턴스 복구 문제 해결 가이드

📝 운영자가 기억해야 할 '복구 골든룰'

운영자가 실무에서 체득해야 할 복구의 핵심은 단순히 개별 기능을 사용하는 단계를 넘어 시스템 차원의 복구 체계를 구조적으로 마련하는 데 있습니다. 무엇보다 이미지 생성, 설정 교정, 재배포로 이어지는 클라우드 기반의 흐름을 활용하면, 접속이 차단된 상황에서도 복구 경로를 확보할 수 있습니다.

이 과정에서 데이터 보호는 기본 전제입니다. 복구 작업 전 인스턴스를 정지하고 스냅샷을 생성하는 절차를 습관화하면 데이터 손실 위험을 최소화할 수 있습니다. 또한 복구가 완료된 이후에는 임시 스냅샷, 복원 볼륨, 기존 인스턴스를 정리하여 불필요한 비용이 발생하지 않도록 관리하는 것이 바람직합니다.

장애는 예고 없이 발생하지만, 복구 절차는 사전에 준비할 수 있습니다. 카카오클라우드의 문제 해결 가이드와 OpenAPI를 함께 활용하면 대부분의 접속 장애 상황에서 재현 가능한 복구 경로를 확보할 수 있습니다. 지금 바로 기술문서를 참고하여 여러분의 인프라 환경에 맞는 자동화 복구 시나리오를 점검해 보시기 바랍니다.

👉 지금 바로 카카오클라우드 시작하기

Hadoop Eco, 데이터 레이크 아키텍처의 운영 효율성을 위한 기능 추가

· 약 4분
Evan (진은용)
Service Manager
HDE update

기업에서 클라우드 기반의 대규모 데이터 레이크 아키텍처를 설계할 때, 우리는 단순히 데이터를 쌓는 것을 넘어 운영 효율성을 극대화해야 하는 시점에 와 있습니다. 효율성을 확보하기 위해서는 고성능 처리, 컴퓨팅 리소스의 유연한 분리, 그리고 견고한 데이터 거버넌스와 같은 핵심 요소들을 균형 있게 구축하는 것이 필요합니다.

만약 이 균형이 무너진다면, 배치 작업 때문에 실시간 분석 쿼리가 지연되거나 , 필요한 데이터의 위치와 신뢰도를 파악하기 어려워지는 등의 복잡한 문제에 직면하게 됩니다.

카카오클라우드 Hadoop Eco(HDE) 서비스는 이러한 문제를 해결하고 분석 환경의 처리 능력과 운영 관리 역량을 향상시키고자 최근 대규모 업데이트를 진행했습니다. 이번 업데이트는 HDE-2.3.0 신규 버전 출시를 기반으로, 차세대 메타스토어인 Iceberg 카탈로그 연동 개선 및 워크로드에 최적화된 태스크 노드(Task Node) 도입이라는 주요 변경사항을 포함합니다.

이 포스트에서는 이러한 개선사항들을 HDE 서비스 내에서 어떻게 활용하여 분석 워크플로우를 개선할 수 있을지 간략히 소개하겠습니다.

🚀 HDE-2.3.0 신규 버전과 강력한 컴포넌트 추가

이번 업데이트를 통해 HDE-2.3.0 버전이 새롭게 제공되며, 데이터 분석 및 처리 워크플로우를 효과적으로 지원하는 JupyterLab, Impala, Kudu 컴포넌트가 새롭게 추가되었습니다.

HDE 클러스터 생성 HDE 클러스터 생성

  • JupyterLab: 웹 기반의 프로그래밍 및 쉘 환경을 제공하여, 클러스터 노드 내에서 데이터 탐색과 분석 코드를 즉시 실행하는 개발 환경을 제공합니다.
  • Impala: Hive Metastore를 기반으로 Kudu와 같은 데이터 스토어에 대해 빠른 대화형 쿼리를 지원하는 강력한 쿼리 엔진입니다.
  • Kudu: 낮은 지연 시간의 읽기/쓰기를 지원하는 컬럼형 데이터 저장소 역할을 수행합니다.

또한, 데이터 플로우 유형 클러스터의 핵심 컴포넌트인 Druid가 v33.0.0으로, Superset이 v5.0.0으로 최신 버전으로 업그레이드되어 성능과 안정성이 한층 높아졌습니다.

💡 Hadoop Eco 컴포넌트 목록 보기

⚙️ 클러스터 구조의 유연성 확보: 태스크 노드 도입

클러스터 운영에서 까다로운 부분 중 하나는 일괄 처리(Batch)와 대화형 처리(Interactive) 리소스를 분리하여 상호 간섭을 최소화하는 것인데요, 이번 업데이트에서는 태스크 노드(Task node)가 새롭게 도입되면서 운영 부담을 효과적으로 완화할 수 있게 되었습니다.

태스크 노드 설정 태스크 노드 설정

  • 역할 분리: 태스크 노드는 주로 대규모 배치 연산 작업(YARN Job) 실행을 위한 전용 컴퓨팅 리소스로 활용됩니다. 워커 노드와 역할을 분리함으로써, 핵심 데이터 처리 리소스의 안정성을 보장하고 리소스 경합으로 인한 성능 저하를 효과적으로 방지합니다.
  • 용량 계획의 정확성: 태스크 노드 도입에 따라 YARN의 가용 리소스 계산 방식이 태스크 노드의 수와 플레이버까지 포함하도록 변경되었습니다. 이는 클러스터의 용량 계획을 더욱 정확하고 예측 가능하게 만듭니다.

⚠️ 태스크 노드 사용 시 주의 사항: 태스크 노드는 클러스터 생성 시에만 추가할 수 있다는 점을 유의해주세요. 초기 설계 단계에서 태스크 노드 추가 여부를 신중히 결정해야 하며, 생성 후에는 추가할 수 없습니다. (단, 노드 수를 0으로 축소했다가 다시 늘리는 것은 가능합니다.)

🧊 Iceberg 카탈로그 연동, 이제 클릭 한 번으로!

카카오클라우드 Data Catalog 서비스에서 Apache Iceberg 포맷을 정식 지원함에 따라, Hadoop Eco 클러스터 생성 시 Iceberg 카탈로그 연동 방식이 획기적으로 간소화되었습니다.

Iceberg 카탈로그 연동 Iceberg 카탈로그 연동

이번 개선사항이 적용된 Hadoop Eco 서비스에서는 콘솔에서 클러스터 생성 단계의 외부 메타스토어 연동 설정에서 Data Catalog의 Iceberg 카탈로그를 직접 선택하여 연결할 수 있도록 간편하게 기능이 개선되었습니다. 이로써 휴먼 에러를 최소화하고, 연동 시간을 단축하여 바로 분석 작업에 착수할 수 있습니다.

이와 함께 클러스터 삭제 후 데이터 보존 기간(90일)동안 자동 보관 여부를 사용자가 직접 선택할 수 있는 옵션도 추가되었습니다. 이 기능은 불필요한 메타데이터 보존 비용을 방지하고 거버넌스를 명확히 하는 데 활용할 수 있습니다.

이번 Hadoop Eco 서비스 업데이트는 단순한 기능 확장이 아니라, 안정적인 메타데이터 거버넌스, 고성능 대화형 분석 환경, 유연한 컴퓨팅 리소스 관리라는 세 가지 축을 중심으로 데이터 레이크 아키텍처의 운영 효율성을 한층 강화합니다.

카카오클라우드의 새로운 Hadoop Eco 서비스를 통해 분석 워크플로우를 보다 효율적이고 체계적으로 운영해 보시기 바랍니다.

감사합니다.

👉 지금 바로 카카오클라우드 시작하기

운영 안정성을 강화한 최신 서비스 업데이트 - Iceberg, PITR, SMS

· 약 3분
Mia (정혜원)
Technical Contents Manager
update

클라우드 운영에서 가장 중요한 가치 중 하나는 바로 안정성입니다. 시스템의 안정성은 단순히 문제를 막는 것에 그치지 않고, 문제가 발생했을 때 얼마나 빨리 복구하고 유연하게 해결할 수 있는지, 그리고 문제 발생을 얼마나 잘 예방하고 대비할 수 있는지에 따라 그 신뢰도가 결정됩니다.

카카오클라우드는 최근 여러 서비스의 업데이트를 통해 이처럼 중요한 운영 안정성(Operational Reliability)을 한층 더 강화했습니다. 안전한 데이터 복원, 시스템 점검의 효율성, 그리고 장애 알림 체계의 신속성을 중심으로 사용자 여러분의 운영 경험을 개선하는 데 중점을 두었는데요.

이번 포스트에서는 운영 안정성을 실질적으로 끌어올릴 수 있는 주목할 만한 세 가지 개선 사항을 자세히 살펴보겠습니다.


🧊 1. 데이터 무결성을 위한 Iceberg 포맷 지원

최근 업데이트에서 주목할 만한 변화는 Data Catalog 서비스에서 Apache Iceberg 포맷을 정식으로 지원하기 시작했다는 점입니다. 넷플릭스에서 개발한 Apache Iceberg대규모 데이터의 변경 이력 추적(Time Travel) 과 특정 시점 복원 기능을 위해 설계된 강력한 오픈소스 테이블 포맷입니다.

이제 카카오클라우드 Data Catalog에서 Iceberg 카탈로그 유형을 선택할 수 있습니다. 기존 Hive Metastore 기반의 Standard 유형 외에 Iceberg가 추가되면서, 대규모 데이터 환경에서도 버전 관리와 시점 복원이 훨씬 간단해졌습니다. 데이터 손실이나 오류가 발생하더라도 이전 상태로 쉽게 복원할 수 있으며, Spark와 Trino 등 주요 분석 엔진과의 연동도 즉시 활용 가능합니다.

이 업데이트를 통해 카카오클라우드 Data Catalog는 대규모 데이터의 무결성과 복원력을 실무 수준에서 완벽하게 지원하며, 분석 환경 전반의 데이터 신뢰도를 한층 높이는 효과를 기대할 수 있습니다.

📝 Apache Iceberg 카탈로그 자세히 보기

⏪ 2. 시점 복원(PITR)으로 복구 신뢰도 강화

데이터베이스는 클라우드 운영 안정성에서 가장 중요한 요소 중 하나입니다. 이러한 데이터베이스 시스템에서 복구 기능의 신뢰도를 높이는 것은 정말 중요한데요. 이번 MySQL 업데이트에서는 많은 고객분들이 기다려온 시점 복원(Point-in-Time Recovery, PITR) 기능이 새롭게 추가되었습니다.

자동 백업과 Binary Log를 기반으로 원하는 시점을 지정하면, 해당 시점의 상태로 새로운 인스턴스 그룹을 복원할 수 있습니다. 초 단위까지 복원 시점을 지정할 수 있게 되어, 실수나 오류로 인한 데이터 손실에도 매우 유연하게 대처가 가능합니다.

💡 참고해주세요! 현재 서비스 안정성을 위해 시점 복원 시에는 가용성 단일 구성을 지원합니다. 고가용성(HA) 구성이 필요한 경우에는 복원 완료 후 인스턴스를 추가하여 확장하는 것을 권장합니다.

여기에 더해, 인스턴스 운영 중에도 보안 그룹을 수정할 수 있게 되어 네트워크 제어의 유연성이 높아졌습니다. 또한, 계정 관리용 프로시저도 개선되어 비밀번호 정책이 프로시저 사용 시에도 동일하게 적용됩니다. 이처럼 세밀한 보안 및 복구 기능의 개선은 실제 운영 환경에서 안정성을 실질적으로 높여주는 중요한 변화입니다.

📝 MySQL 시점 복원 자세히 보기

📩 3. 알림 속도는 곧 대응 속도

운영자가 시스템의 상태를 얼마나 빨리 인지하느냐에 따라 문제 발생 시 대응의 결과가 달라집니다. Maintenance 서비스에서는 이번 업데이트를 통해 기존 이메일 외에 SMS 알림 기능을 새롭게 도입했습니다. 점검 작업 실패나 중요한 이벤트가 발생하면, 등록된 휴대폰 번호로 즉시 알림이 발송됩니다. 이제 이메일을 확인하지 못하더라도 문제 상황을 실시간으로 인지하고 조치할 수 있습니다.

💡 참고해주세요! SMS 알림은 빠른 조치가 필요한 이벤트에만 발송되며, 프로젝트 관리자가 유효한 연락처 정보를 미리 등록해야 합니다.

📝 Maintenance 서비스 자세히 보기


이번 세 가지 업데이트는 서로 다른 서비스에서 진행되었지만, 공통적으로 같은 방향을 향하고 있습니다. 데이터는 손실 없이 안전하게 복원되고, 보안 설정을 더 유연해졌으며, 장애는 더 빠르게 감지할 수 있게 되었죠. 이것이 바로 카카오클라우드가 지향하는 운영 복원력(Resilience) 입니다. 데이터에서 알림까지, 운영의 전 과정을 아우르는 안정성 개선은 앞으로도 계속 이어질 예정입니다.

카카오클라우드는 고객의 운영 환경이 더욱 안정적이고 예측 가능하도록 기술적 완성도를 계속 높여가겠습니다.
앞으로도 많은 관심과 응원 부탁드립니다!

👉 지금 바로 카카오클라우드 시작하기

Kafka 기반 실시간 데이터 파이프라인 구축하기

· 약 3분
Erin (오예진)
Cloud Engineer
Tutorial new release

서비스에서 발생하는 로그, 사용자 이벤트, 트랜잭션 정보. 이런 데이터는 저장도 중요하지만, 빠르게 분석할 수 있어야 진짜 ‘의미 있는 흐름’이라고 할 수 있습니다.

이번에 소개해 드리는 Kafka 기반 실시간 데이터 파이프라인 튜토리얼 시리즈는, 바로 이 '데이터의 흐름'을 카카오클라우드에서 어떻게 구현할 수 있는지를 직접 따라 해볼 수 있는 실습형 튜토리얼입니다.

이 시리즈는 총 3편으로 구성되어 있으며, 실시간 메시지 수신부터 저장, 분석까지의 전 과정을 단계적으로 안내합니다.
Kafka와 Object Storage, Data Catalog, Data Query를 연결하여, 데이터가 흐르는 전체 구조를 이해하고 직접 구현해볼 수 있는 구조로 설계되었습니다.

architect 실시간 데이터 파이프라인 구축 아키텍처

1편: Kafka 메시지를 수신하는 구조 만들기

첫 번째 튜토리얼에서 Kafka 클러스터를 생성하고, 토픽을 통해 메시지를 송수신하는 환경을 구성합니다. Kafka 토픽을 생성하고, 프로듀서(Producer)와 컨슈머(Consumer)를 구성한 뒤, 메시지를 송수신하며 실시간 데이터 수집 기반을 마련합니다.
이 과정은 이벤트 기반 시스템의 기본 구조를 이해하고, 메시지 흐름의 시작점을 만드는 데 초점을 맞추고 있습니다.

👉 Kafka를 통한 메시지 처리 튜토리얼 보기

2편: 수신한 메시지를 Object Storage에 저장하기

두 번째 튜토리얼에서는 Kafka로 수신한 메시지를 주기적으로 수집하여 Object Storage에 저장하는 흐름을 다룹니다. 메시지를 일정 간격으로 모아 하나의 파일로 저장하고, 저장된 파일은 이후 분석을 위한 데이터 소스로 활용됩니다.
이 과정에서는 스트리밍과 배치의 경계, 그리고 파일 포맷과 구조를 어떻게 설계해야 하는지도 함께 고민해볼 수 있습니다.

👉 Kafka 데이터의 Object Storage 적재 튜토리얼 보기

3편: Data Catalog와 Data Query를 통한 실시간 분석

마지막 튜토리얼에서는 Object Storage에 저장된 데이터를 Data Catalog에 등록하고, Data Query를 통해 SQL 기반 분석을 수행할 수 있는 환경을 구성합니다. Catalog에 등록된 테이블은 파티션 기반으로 관리되며, 정기적인 동기화 설정을 통해 새로운 데이터를 자동으로 반영할 수 있습니다.
Kafka로 수집한 실시간 데이터를 별도의 복잡한 파이프라인 없이 바로 분석할 수 있는 구조로 전환하는 것이 이 단계에서 가장 중요한 부분입니다.

👉 Data Catalog와 Data Query를 이용한 Kafka 메시지 분석 튜토리얼 보기


이번 실시간 데이터 파이프라인 튜토리얼 시리즈는 단순한 코드 예제가 아니라, 운영 환경에서 그대로 활용할 수 있는 아키텍처와 설정을 바탕으로 작성되었습니다. Kafka 메시지를 수신하고, Object Storage에 저장하고, Data Catalog와 Data Query로 분석까지 연결하는 전 과정을 직접 따라 해보며, 실시간 서비스, 모니터링 시스템, 이벤트 기반 통계 파이프라인 설계에 필요한 감을 빠르게 익힐 수 있습니다.

Kafka 기반 실시간 데이터 파이프라인을 처음 설계하시거나, 기존 파이프라인을 카카오클라우드에서 확장하고자 하신다면 이 튜토리얼이 좋은 레퍼런스가 될 것입니다.

🖥️ 지금 바로 실습해 보세요!
Kakfa 기반 실시간 데이터 파이프라인 튜토리얼 시리즈 한눈에 보기

Secrets Manager 및 KMS 서비스 출시 안내

· 약 4분
Miguel (김현덕)
Service Manager
security-release

클라우드 기반 서비스가 확산되면서 운영 효율성과 확장성은 크게 향상됐지만, 그만큼 보안에 대한 요구도 더욱 정교해지고 있습니다. 특히 인증 정보나 자격 증명처럼 시스템 내부에서 필수로 사용되지만 외부 노출 시 보안 사고로 직결되는 민감 정보는, 단순히 숨기는 것만으로는 더 이상 안전하다고 할 수 없습니다. 어떻게 저장하고, 누가 접근하며, 어떤 방식으로 갱신, 폐기되는지까지 체계적으로 관리되어야 하죠.

또한, 암호화된 데이터를 보호하는 암호화 키(Key) 역시 별도로 안전하게 관리되어야 합니다. 키 하나만 유출되어도 모든 보안의 의미가 사라질 수 있기 때문입니다.

이런 보안 니즈에 대응하기 위해, 카카오클라우드는 두 가지 신규 보안 서비스를 출시했습니다. 바로 Secrets ManagerKMS(Key Management Service) 입니다.
이 포스트에서는 두 서비스를 통해 시크릿과 키를 어떻게 안전하게 분리·관리하고, 보안과 운영 효율을 동시에 높일 수 있는지 소개합니다.

🔐 시크릿을 안전하게 관리하는 방법, Secrets Manager

서비스를 운영하다 보면 반드시 보호해야 할 정보들이 존재합니다. 예를 들어, 데이터베이스의 사용자 이름과 비밀번호, 외부 API의 인증 키, 서비스 간 통신에 사용되는 토큰 등이죠. 이러한 정보는 일반적으로 시크릿(Secret) 이라고 하며, 애플리케이션이 외부 또는 내부 시스템과 안전하게 통신하기 위해 필요한 보안 자격 증명(Security Credentials) 입니다. 이러한 시크릿이 노출되면 무단 접근이나 데이터 탈취 같은 심각한 보안 사고로 이어질 수 있습니다.

카카오클라우드의 Secrets Manager는 시크릿을 암호화된 상태로 안전하게 저장하고, 필요한 시점에만 안전하게 꺼내 쓸 수 있도록 도와주는 서비스입니다. 기존처럼 코드에 하드코딩하거나 운영 서버의 환경변수로 설정하는 방식은 보안에 취약하고 변경 이력을 추적하기 어렵습니다.

하지만 Secrets Manager를 이용하면 시크릿을 중앙 저장소에서 통합 관리할 수 있고, 변경 시마다 자동으로 버전이 생성되어 변경 이력을 체계적으로 추적할 수 있습니다. 예를 들어, 실수로 잘못된 값을 저장했더라도 이전 버전으로 간단히 롤백할 수 있으며, 필요시 특정 버전만 정지(Deactivated)하거나 폐기(Destroyed)하는 것도 가능합니다. 현재 활성화된 시크릿은 운영(Active) 상태로 유지되며, 상태에 따라 사용 가능 여부가 명확히 구분됩니다.

또한 IAM 서비스와 연동해 시크릿 접근 권한을 사용자 또는 서비스 계정 단위로 세밀하게 제어할 수 있습니다.
예를 들어,

  • Secrets Manager 프로젝트 매니저(Manager)는 시크릿 생성, 수정, 삭제 등 모든 관리 작업이 가능하고,
  • Secrets Manager 프로젝트 뷰어(Viewer)는 시크릿 목록과 버전, 상태를 조회만 가능하도록 설정할 수 있습니다.

이처럼 권한 분리를 통해 보다 안전하고 유연한 시크릿 운영이 가능합니다.

🔑 데이터를 암호화하고 키를 안전하게 다루는 법, KMS

데이터의 암호화만큼 그 데이터를 복호화할 수 있는 ‘키’를 얼마나 안전하게 관리하느냐도 중요합니다. 고객 정보가 담긴 DB, 민감한 로그, 클라우드 스토리지의 파일 등은 모두 암호화를 통해 보호되어야 하며, 이를 위한 암호화 키의 생성과 운영은 체계적인 방식으로 이루어져야 합니다.

카카오클라우드의 KMS(Key Management Service) 는 데이터를 암호화하거나 디지털 서명을 만들 때 사용하는 '암호화 키'를 생성하고, 안전하게 저장하며, 필요에 따라 순환시키거나 폐기할 수 있도록 도와주는 서비스입니다.

KMS에서 생성한 키는 주기적으로 자동 순환(Rotation) 되도록 설정할 수 있으며, 보안 이벤트 발생 시 즉시 비활성화하거나 폐기(Destroyed)할 수 있습니다. 하나의 키는 여러 버전으로 관리되며, 새로운 버전이 생성되더라도 이전 버전은 그대로 유지되어 과거 데이터 복호화에도 문제없이 대응할 수 있습니다.

KMS는 AES, RSA 등 업계 표준 알고리즘을 지원하며, 생성한 키는 활성(Active), 정지(Deactivated), 폐기(Destroyed) 상태를 기반으로 사용 가능 여부를 명확히 구분할 수 있습니다. 또한, 카카오클라우드의 IAM 서비스와 연동되어 누가 어떤 키에 접근할 수 있는지를 사용자나 서비스 계정 단위로 세밀하게 제어할 수 있습니다.
부여된 역할에 따라,

  • KMS 프로젝트 매니저(Manager)는 키의 생성, 상태 변경, 정책 설정 등 전체 관리 권한을 가지며,
  • KMS 프로젝트 뷰어(Viewer)는 키의 메타데이터나 상태 정보를 조회할 수 있는 권한을 갖습니다.

이처럼 역할 기반으로 권한을 나누어 설정할 수 있어, 운영 안정성과 보안 통제력을 동시에 확보할 수 있습니다. 또한, 키의 생성, 사용, 폐기 이력은 Cloud Trail을 통해 자동 기록되어, 보안 감사와 컴플라이언스 대응에도 유용하게 활용할 수 있습니다.

✅ 보안 수준을 한 단계 높여보세요

Secrets Manager와 KMS는 기존 Security 카테고리에 새롭게 추가된 서비스로, 시크릿과 암호화 키를 통합적으로 관리하고 IAM과의 연계를 통해 보다 정교한 권한 제어를 구현할 수 있는 보안 체계를 제공합니다.

이제 카카오클라우드 콘솔에서 몇 번의 클릭만으로 민감 정보를 보호하고 키 관리 체계를 구축해보세요.
카카오클라우드는 앞으로도 고객의 보안 요구에 발맞춰 지속적으로 기능을 강화하고, 다양한 서비스의 연동을 통해 통합된 보안 운영 환경을 제공해 나가겠습니다.

Secrets Manager와 KMS의 자세한 설명과 API 가이드는 아래 기술문서를 참고해 주세요.
감사합니다.

👉 Secrets Manager 문서 보기
👉 KMS 문서 보기

Pub/Sub, 더 정교한 역할 관리의 시작

· 약 2분
Chloe (이다예슬)
Service Manager
pub-sub

서비스가 커지고 사용자가 많아질수록, 누가 어떤 작업을 할 수 있는지 명확히 구분하는 일이 점점 더 중요해집니다. 단순한 권한 부여를 넘어서, 운영 효율성과 보안을 함께 고려한 정교한 권한 관리 체계가 필요한 시점인거죠.

지난 7월, IAM 업데이트를 통해 카카오클라우드는 서비스별 전용 권한을 확대하며 조직과 프로젝트 단위로 더욱 세밀한 역할 제어를 가능하게 했습니다.

이제, Pub/Sub 서비스에서도 이 흐름을 이어갑니다.

이번 업데이트의 핵심: 역할별 권한 분리

Pub/Sub 서비스는 출시 초기부터 비설치형 메시지 큐로써 애플리케이션 간의 이벤트 전달과 실시간 데이터 스트리밍을 안정적으로 지원해 왔습니다. 특히 정식버전의 출시(GA) 이후에는 Object Storage 연동, 서브스크립션 상태 세분화, SLA 적용 등 지속적인 개선이 이루어졌습니다.

이번 업데이트에서는 운영 효율성과 보안 강화를 위해 Pub/Sub 서비스에 역할 기반 권한 제어(RBAC) 체계가 새롭게 도입되었습니다. 기존에는 조직이나 프로젝트 단위의 역할 유형에 따라 일괄적인 권한이 부여되었다면, 이제는 아래와 같이 Pub/Sub 전용 4가지 역할을 기준으로 메시지 게시, 수신, 리소스 조회 등 세부 권한을 명확히 구분할 수 있게 되었습니다.

역할명설명
Pub/Sub 매니저 (Manager)토픽과 서브스크립션의 생성, 수정, 삭제, 메시지 게시 및 수신 등 전체 관리 권한을 가짐
Pub/Sub 게시자 (Publisher)토픽에 메시지를 게시할 수 있음
Pub/Sub 구독자 (Subscriber)서브스크립션을 통해 메시지를 수신 및 처리할 수 있음
Pub/Sub 뷰어 (Viewer)토픽 및 서브스크립션 조회만 가능

이 중 Pub/Sub 매니저 역할은 게시자, 구독자, 뷰어 권한을 포함하는 최상위 권한으로, Object Storage 내보내기 채널 설정이나 서브스크립션 시점 되돌리기와 같은 고급 기능도 포함됩니다.

프로젝트 리더 역할에서의 변경 사항

이번 역할 체계 도입과 함께 2025년 9월 19일부터프로젝트 리더 역할에서 Pub/Sub 메시지 수신 및 처리 권한이 제외됩니다. 즉, 메시지를 처리해야 하는 사용자는 Pub/Sub 구독자(Subscriber) 역할을 별도로 부여해야 합니다. 이러한 변경은 불필요한 권한 부여를 줄이고 최소 권한 원칙 (Principle of Least Privilege) 에 따라 서비스 운영을 더욱 안전하게 만드는 데 목적이 있습니다.

앞으로도 카카오클라우드는 각 서비스별 역할과 권한 체계를 더 정교하고, 더 실용적으로 개선해 나갈 예정입니다.
서비스 운영에 꼭 필요한 권한만을 안전하게 부여하고, 관리자와 사용자 모두가 역할과 책임을 분명히 인식할 수 있도록 돕겠습니다.

감사합니다.

Pub/Sub 서비스의 더 자세한 내용을 확인하고 싶으신가요?
👉 Pub/Sub 문서 보기

카카오클라우드 Data Query, 정식 GA 버전 출시

· 약 3분
Chloe (이다예슬)
Service Manager
data-query

카카오클라우드의 서버리스 대화형 쿼리 서비스, Data Query가 드디어 GA(General Availability) 버전으로 정식 출시되었습니다. 이번 GA는 내부 베타 테스트와 프리뷰 단계에서 수많은 고객 사례를 통해, 실제 고객 환경에서 안정적으로 활용할 수 있도록 기능·성능·요금 체계 전반이 다듬어졌다고 할 수 있습니다.

Data Query는 별도의 인프라 관리 없이, Object Storage에 저장된 데이터를 SQL 기반으로 바로 조회할 수 있는 서버리스 쿼리 엔진입니다. 사용자는 데이터 웨어하우스를 직접 구축하거나 복잡한 클러스터 운영을 고민하지 않고, 단일 쿼리로 대규모 데이터를 탐색할 수 있습니다.

요금 체계의 단순화와 투명성

GA 버전에서는 데이터 스캔 기반 종량 과금 모델이 적용되었습니다. 쿼리 실행 시 스캔된 데이터 양을 기준으로 TiB당 5,850원이 과금되며, 메타데이터 조회나 DDL 문(CREATE, DROP, SHOW TABLE) 실행에는 비용이 발생하지 않습니다.

특히 이번 버전에서 눈에 띄는 변화는 실패 쿼리와 취소된 쿼리에 대한 과금 정책이 명확해졌다는 점입니다. 사용자가 직접 쿼리를 취소한 경우에는 취소 시점까지 스캔된 데이터만 과금되고, 시스템 타임아웃이 발생했을 때는 타임아웃 직전까지의 스캔량 기준으로 요금이 부과됩니다. 이러한 과금 정책으로 인해 실제 운영자 입장에서는 불필요한 요금이 발생하지 않도록 보장해주고, 안전하게 실험적인 쿼리나 대규모 탐색 작업을 시도할 수 있죠.

또한 Data Query는 Object Storage와 함께 사용할 때 가장 효율적인데요. 데이터를 별도로 복제하거나 이동하지 않고도 그대로 쿼리할 수 있어, 표준 Object Storage 요금 외에 추가 오버헤드가 발생하지 않습니다. 결과적으로, 운영자는 데이터 분석의 유연성을 확보하면서도 불필요한 비용을 줄일 수 있습니다.

실제 사례: 데이터 레이크 기반 로그 분석

Data Query는 Object Storage와 밀접하게 연동하여 데이터 규모가 커지더라도 동일한 방식으로 분석을 수행할 수 있습니다. 지난 베타 서비스 단계에서 가장 많이 언급된 사례 중 하나는 서비스 로그 분석입니다. 한 고객사는 수십 TB 단위의 서비스 로그를 Object Storage에 저장해 두고, Data Query를 통해 실시간에 가까운 형태로 트래픽 이상 패턴을 탐색했습니다. 기존 방식대로라면 로그를 수집·적재한 뒤 별도의 분석 시스템에 적재하는 과정이 필요했지만, 이번 GA 버전의 Data Query에서는 별도 ETL 없이 바로 SQL 쿼리만으로 결과를 확인할 수 있게 되었습니다.

예를 들어, 특정 시간대에 집중적으로 발생한 에러 코드의 분포를 빠르게 확인하거나, 사용자 세그먼트별 API 응답 시간을 즉시 분석하는 방식입니다. 이러한 활용은 데이터 레이크 아키텍처에서 서버리스 쿼리 서비스의 가치를 잘 보여주는 사례라 할 수 있습니다.

실제 운영에 가까워진 데이터 분석

Data Query GA 출시는 카카오클라우드가 데이터 플랫폼 영역으로 확장해 나가는 중요한 출발점입니다. 이제는 쿼리 전용 클러스터를 따로 구축하거나 관리하지 않아도, Object Storage에 저장된 데이터를 바로 탐색할 수 있습니다. 특히 복잡한 과금 구조가 아닌 예측 가능한 비용 모델을 제공함으로써 실제 서비스 운영 현장에서 안정성과 효율성을 높일 수 있습니다. 이번 GA 이후에는 다양한 데이터 원본을 추가로 지원하며 활용 범위를 지속적으로 넓혀갈 예정이며, IAM Role 연계, 보다 정교한 쿼리 최적화 등 추가 기능이 순차적으로 제공될 예정입니다.

데이터 분석은 이제 특정 전담팀만의 역할이 아닙니다. 운영자, 개발자, 기획자 등 다양한 사용자들이 Data Query를 통해 필요한 데이터를 즉시 탐색하고, 빠르게 의사결정을 내릴 수 있는 환경이 마련되었습니다.
GA 버전으로 선보이는 Data Query, 지금 직접 사용해 보시고 변화된 데이터 분석 경험을 확인해 보시기 바랍니다.

Data Query 서비스의 더 자세한 내용을 확인하고 싶으신가요?
👉 Data Query 문서 보기

IAM 업데이트, 내 역할 확인과 전용 권한 체계 도입

· 약 4분
Martin (왕현수)
Service Manager
Management Update

클라우드 환경에서 협업을 하다 보면 이런 궁금증이 자주 생깁니다.

“나는 이 프로젝트에 무슨 권한이 있는 거지?”
“왜 이 설정은 접근이 안 되는 걸까?”
“이 사용자에게 어떤 역할을 줬더라?”

이번 업데이트에서는 이러한 궁금증을 해소할 수 있도록, 각 사용자가 내 역할 정보를 직접 확인할 수 있는 기능이 추가되었습니다. 또한 클라우드 리소스를 제외한 IAM과 프로젝트의 관리 목적을 위한 전용 역할 체계가 새롭게 도입되어, 권한을 보다 정교하게 구성하고 운영할 수 있게 되었습니다.

🖥️ 내 역할 정보를 손쉽게 확인할 수 있어요

이번 업데이트의 가장 큰 변화 중 하나는 사용자가 자신의 역할 정보를 콘솔에서 직접 확인할 수 있게 되었다는 점입니다.

기존에는 “내가 어떤 역할을 갖고 있는지”, “어떤 설정에 접근할 수 있는지” 등을 확인하려면 관리자에게 따로 문의해야 했습니다. 특히 여러 프로젝트에 동시에 참여하고 있는 경우, 권한 범위를 명확히 파악하기 어려웠죠.

하지만 이제는 콘솔에서 조직 역할과 프로젝트 역할을 명확히 구분해 확인할 수 있는 기능이 제공됩니다.

org role

먼저, 조직 단위의 역할은 콘솔 우측 상단 프로필 메뉴에서 조직 역할 항목을 선택하면 확인할 수 있습니다. 내게 부여된 역할 이름은 물론, 그것이 공통 역할인지, 특정 서비스에 국한된 서비스 역할인지도 함께 표시되어 현재 권한을 한눈에 파악할 수 있습니다.

org role

프로젝트 단위의 역할도 마찬가지입니다. 같은 위치의 프로젝트 역할 메뉴에서 내가 속한 프로젝트 목록을 확인하고, 각 프로젝트 내에서 어떤 역할이 할당되어 있는지 확인할 수 있습니다. 프로젝트의 이름, 닉네임, ID, 설명과 함께 역할 유형과 명칭까지 함께 제공되어, 여러 프로젝트에 참여하고 있어도 내 권한이 어디까지인지 명확히 이해할 수 있습니다.

project role

🎉 IAM과 프로젝트 관리 기능을 위한 역할이 새롭게 추가되었어요

이번 업데이트에서는 역할 체계에도 중요한 변화가 있었습니다.

기존에는 조직 관리자, 프로젝트 관리자, 멤버, 리더 등의 기본 역할만으로 구성되어 있었기 때문에, 실제 운영 환경에서 역할과 책임을 세분화하기 어려웠습니다. 예를 들어, 특정 사용자에게 IAM 설정만 관리할 수 있는 권한을 주고 싶어도, 조직 관리자나 프로젝트 관리자 역할은 리소스 관리 권한까지 포함하고 있어 고민이 따랐죠.

이러한 현실적인 요구를 반영해, IAM 서비스와 프로젝트 관리 기능에 특화된 전용 역할이 새롭게 도입되었습니다.

  • IAM 조직 관리자는 IAM 서비스에서 사용자에게 역할을 할당하거나 제거할 수 있는 권한을 가집니다.
  • IAM 조직 뷰어는 역할 정보를 조회할 수 있지만, 직접 수정은 할 수 없습니다.
  • IAM 프로젝트 관리자는 특정 프로젝트에 대한 사용자 권한을 할당하거나 수정할 수 있으며,
  • IAM 프로젝트 뷰어는 해당 프로젝트의 역할 정보를 조회할 수 있는 읽기 전용 권한을 가집니다.

이러한 전용 역할은 기존의 조직/프로젝트 관리자와는 독립적으로 할당할 수 있어, 사용자에 대한 관리 책임을 보다 세분화할 수 있습니다.
👉 IAM, 프로젝트 관리 역할 자세히 보기

💡 사용성을 높이고, 책임을 분명히

이번 IAM 업데이트는 단순히 기능이 추가된 것이 아니라, 조직 내에서 역할과 책임을 명확히 하고, 권한을 효율적으로 분산시킬 수 있는 체계를 제공한다는 점에서 의미가 큽니다.

관리자는 더 이상 “역할은 부여했으니 접근되는지 한번 확인해보세요”라고 말할 필요가 없습니다. 대신 이렇게 표현할 수 있을 것 같습니다. “필요한 권한은 콘솔에서 직접 확인하고 활용하세요” 즉, 확인 요청에서 자율 확인 안내로 바뀐 거죠.

또한, IAM과 프로젝트 관리에 특화된 새로운 역할을 활용하면, 서비스별 책임자를 지정하되, 꼭 필요한 권한만 부여할 수 있습니다. 이를 통해 보안 정책은 강화되고, 권한 운영은 더욱 효율적으로 이루어집니다.

앞으로 카카오클라우드는 IAM을 포함한 전반적인 서비스별 역할 체계를 더 세분화해 나갈 계획입니다. 이를 통해 조직은 최소 권한 원칙(Principle of Least Privilege) 에 더욱 충실하면서, 관리자는 업무별 맞춤형 권한 부여로 운영 부담을 줄이고, 사용자는 자신의 역할과 책임을 한층 더 명확하게 인식할 수 있게 계속 개선해 나가겠습니다.

IAM 문서에서 더 자세한 내용을 확인하고 싶으신가요?
👉 IAM 역할 관리 문서 보기

예측 가능한 클라우드 운영을 위한 Maintenance 서비스 출시

· 약 3분
Irene (윤영지)
Service Manager
Monitoring Flow

클라우드를 운영해 본 분이라면 한 번쯤 이런 경험이 있으실 겁니다. 보안 취약점 보고서에 빠뜨린 업데이트가 지적되거나, 원치 않던 시간대에 서버가 재시작되어 사용자들이 몰려드는 순간 불안하게 모니터를 바라본 적 말이죠.

사실 이런 상황은 많은 운영자들이 겪는 현실입니다. 클라우드 환경이 점점 복잡해지고 보안 위협은 더욱 정교해지면서, 업데이트와 패치 관리가 운영자에게 주는 부담은 눈에 띄게 커지고 있기 때문입니다.

AWS, Azure, Google Cloud 역시 보안 패치 누락, 운영 시간 제약, 대규모 환경에서의 안정성 부족을 해결하기 위해 유지관리 서비스를 제공하며, 운영자가 본질적인 업무에 집중할 수 있도록 지원해 왔습니다.

카카오클라우드 역시 운영자들이 겪는 불안과 부담을 잘 알고 있습니다. 그리고 2025년 7월, 국내 고객의 환경에 맞춘 Maintenance 서비스를 선보이게 되었습니다.🎉 🎉 🎉

운영자가 직접 체감하는 변화

Maintenance 서비스는 단순히 업데이트를 자동화하는 기능을 넘어, 운영자가 직접 경험할 수 있는 안정성과 효율성을 제공합니다. 몇 가지 대표적인 상황을 살펴보겠습니다.

먼저 보안 패치의 경우입니다. 기존에는 언제 패치를 적용해야 할지, 적용 시 서비스에 어떤 영향을 줄지 늘 고민이었습니다. 하지만 이제는 그런 걱정을 덜 수 있습니다.
Maintenance 서비스는 새로운 보안 업데이트가 필요할 때 이를 자동으로 감지하고, 운영자가 선택한 시간대에 맞춰 예약 실행할 수 있습니다. 업데이트가 완료되면 이메일 알림을 통해 성공 여부를 즉시 확인할 수 있고, 실패가 발생한 경우 일정 재조정을 빠르게 진행할 수 있습니다. 덕분에 서비스 중단 위험의 위험성은 낮출 수 있습니다.

데이터베이스 운영에서도 효과는 분명합니다.
예를 들어 MySQL 인스턴스를 최신 버전으로 업그레이드해야 할 때, 과거에는 직접 다운타임을 관리하고 실행 과정을 지켜보며 불안감을 감수해야 했습니다. 그러나 Maintenance를 이용하면 운영자가 해야 할 일은 예약 시간과 작업 내용을 지정하는 것뿐입니다. Maintenance가 지정된 시간에 자동으로 업그레이드를 실행하고, 결과와 상태를 실시간으로 제공하기 때문에 별도의 수동 개입 없이도 안정적인 업그레이드가 가능합니다.

이처럼 Maintenance는 보안, 데이터베이스, 시스템 업데이트와 같이 서비스 안정성에 직접 영향을 주는 작업을 체계적이고 예측 가능하게 관리할 수 있도록 지원합니다.

Maintenance, 이렇게 활용할 수 있습니다

Maintenance의 사용 흐름은 단순합니다.

  1. 업데이트 대상 확인
    자동으로 감지된 업그레이드 대상이나 사용자가 등록한 유지관리 작업 목록을 확인하고, 권장 일정과 예상 영향도를 사전에 검토합니다.
  2. 작업 일정 예약
    각 작업의 실행 일시를 설정하고, 서비스 사용량이 적은 시간대로 예약해 운영 안정성을 확보합니다.
  3. 진행 상황 모니터링
    예약된 시간이 되면 작업이 자동 실행되며, 진행 상태를 실시간으로 확인할 수 있습니다.
  4. 결과 확인 및 후속 조치
    완료된 작업의 성공 여부와 상세 결과를 확인하고, 필요 시 재시도나 일정 변경을 진행합니다.

이 과정은 모두 직관적인 콘솔 UI에서 수행할 수 있어, 운영자는 복잡한 절차 없이 편리하게 유지관리를 이어갈 수 있습니다.

불확실성을 줄이는 예측 가능한 유지관리

클라우드 운영에서 핵심은 언제나 안정성과 예측 가능성입니다. Maintenance는 반복 작업의 자동화로 운영 효율성을 높이는 것은 물론, 업데이트 중 발생할 수 있는 중단 위험을 사전에 알림으로써 불확실성을 줄이고, 단계적 업데이트를 통해 안정성을 한층 강화합니다.

현재는 MySQL 인스턴스에 대한 유지관리를 지원하고 있으며, 앞으로 PostgreSQL을 비롯해 더 많은 관리형 서비스로 확대될 예정입니다.

카카오클라우드 Maintenance로 불필요한 운영 리스크를 줄이고, 서비스의 안정성을 한 단계 높여 보세요.

Maintenance 서비스에 대한 더 많은 내용은 기술 문서에서 확인하실 수 있습니다.
👉 Maintenance 주요 개념 이해하기