본문으로 건너뛰기

Kubeflow로 시작하는 실전 머신러닝 워크플로우

· 약 9분
Update Kubeflow

클라우드에서의 머신러닝(Machine Learning)과 AI 활용은 더 이상 특정 개발자나 연구자만의 영역이 아닌, 서비스를 기획하거나 운영하는 실무자, 혹은 AI 기술을 처음 접하는 입문자에게도 더 가까운 기술이 되고 있습니다.

카카오클라우드는 이런 흐름에 맞춰 최신 버전의 Kubeflow 서비스를 제공하고 있는데요, 이번에는 Kubeflow를 기반으로 누구나 머신러닝 파이프라인을 직접 구성해볼 수 있는 실습형 튜토리얼 시리즈 두 가지를 새롭게 제공하게 되었습니다.

이번에 공개된 튜토리얼은 LLM(대규모 언어 모델) 실습웹 서비스 트래픽 예측을 주제로 한 시리즈입니다. 단순한 코드 예제를 넘어, 모델 학습부터 서빙, 최적화, 자동화까지 실무 수준의 전 과정을 손쉽게 체험할 수 있습니다.


📘 생성형 AI, 직접 구현해보세요 — LLM 워크플로우 튜토리얼 시리즈

첫 번째 시리즈는 LLM 워크플로우 튜토리얼입니다.
이 시리즈는 대규모 언어 모델을 Kubeflow 환경에서 직접 서빙하고, 원하는 목적에 맞게 파인튜닝하며, 최종적으로 문서 기반 질의응답 시스템(RAG)을 구축하는 전 과정을 실습할 수 있도록 구성되었습니다.

특히 이 시리즈에선 Hugging Face Hub의 Meta Llama 3.2와 함께, 카카오가 자체 개발한 Kanana(카나나) 모델을 사용해 실습합니다. 실시간 추론부터 도메인 특화 학습까지 다양한 LLM 활용 시나리오를 직접 경험해볼 수 있습니다.

LLM 시리즈는 총 세 편으로 구성되어 있습니다.

  • 1편: LLM 모델 서빙 Endpoint 생성
    KServe를 이용해 사전 학습된 LLM을 클라우드 환경에 배포하고, 실시간 추론이 가능한 엔드포인트를 생성합니다.

  • 2편: LLM 모델 파인튜닝
    PEFT(LoRA 등)를 기반으로 선택한 모델을 특정 도메인 데이터로 효율적으로 재학습시키는 과정을 안내합니다. 학습 후 모델을 저장하고 재사용하는 방법도 포함됩니다.

  • 3편: 문서 기반 RAG 구현
    사용자의 텍스트 문서를 벡터 임베딩하여 FAISS에 저장하고, LangChain을 활용한 질의응답 API를 구성해 LLM 활용 사례를 완성합니다.

클라우드 환경에서 CPU/GPU를 활용해 직접 LLM을 구성해본다는 점에서, 이번 시리즈는 실제 제품화 가능성을 검토하려는 개발자와 AI 기획자에게 매우 유익한 출발점이 될 것이라는 생각입니다.

📌 Kubeflow 기반 LLM 워크플로우 시리즈 바로 가기


📈 로그에서 인사이트까지 — 트래픽 예측 모델 튜토리얼 시리즈

두 번째 시리즈는 트래픽 예측 모델을 구축하는 실습 튜토리얼입니다. 이 시리즈는 웹 서비스의 접근 로그 데이터를 수집하고, 이를 기반으로 향후 트래픽을 예측하는 시계열 머신러닝 모델을 만드는 과정을 단계별로 따라갑니다.

특히 이 튜토리얼은 분석에서 끝나지 않고, 학습된 모델을 API 형태로 서빙하고 전체 과정을 Kubeflow Pipelines로 자동화하는 것까지 다룹니다. 즉, 데이터 전처리부터 모델 개발, 하이퍼파라미터 최적화, 배포, 운영까지 엔드 투 엔드(End-to-End) 파이프라인을 한 번에 경험할 수 있습니다.

트래픽 예측 시리즈는 총 네 편으로 구성됩니다.

  • 1편: 트래픽 데이터 수집 및 전처리
    웹 서버 로그 데이터를 수집한 후, 시계열 분석에 적합한 형태로 정제합니다. 요일, 시간대 등 주기적 패턴을 반영한 피처를 생성해 머신러닝 모델 입력으로 활용할 수 있는 데이터셋을 구성합니다.

  • 2편: 모델 하이퍼파라미터 튜닝
    기본 모델 학습 결과를 바탕으로, Kubeflow Katib을 활용해 하이퍼파라미터 최적화를 수행하고 성능을 개선합니다.

  • 3편: 모델 서빙 API 생성
    학습된 모델을 KServe 기반 InferenceService로 배포하고 API 요청을 통해 예측을 수행합니다.

  • 4편: 모델 파이프라인 구성
    데이터 전처리, 모델 학습, 성능 검증, 서빙 배포까지의 전체 과정을 Kubeflow Pipelines로 자동화합니다.

이 시리즈는 운영 가능한 머신러닝 서비스 전체 흐름을 클라우드 환경에서 직접 실습할 수 있다는 점에서 MLOps 초입자 및 데이터 엔지니어에게 강력히 추천할 수 있습니다.

📌 Kubeflow 기반 트래픽 예측 모델 시리즈 바로 가기


🚀 Kubeflow로 시작하는 실전 머신러닝 워크플로우

이번에 공개한 두 시리즈는 모두 카카오클라우드의 Kubeflow 서비스를 기반으로 구성되었습니다. Kubeflow는 MLOps의 복잡한 과정을 간소화하고, 재현 가능한 머신러닝 실험을 쉽게 관리할 수 있게 도와주는 도구입니다.
GPU, 스토리지, 네트워크 설정 등 머신러닝 인프라를 카카오클라우드 콘솔에서 직관적으로 구성할 수 있고, 다양한 형태의 머신러닝 워크로드를 일관된 방식으로 배포하고 운영할 수 있는 기능을 제공합니다.

이번 튜토리얼은 단순히 따라 해보는 수준을 넘어, 실무에 적용 가능한 기술 흐름을 체득할 수 있는 실전형 학습 경로로 설계되었습니다. LLM과 같은 최신 생성형 AI 기술에서부터, 예측 모델과 파이프라인 구성까지! 복잡한 코드를 단순히 복사 실행하는 것이 아니라, 각 단계의 의미를 직접 구성해보는 방식으로 기술의 맥락을 이해하고, 활용 감각을 함께 기를 수 있습니다.

생성형 AI와 시계열 예측. 지금 주목받는 두 가지 머신러닝 분야를 카카오클라우드 환경에서 직접 실습하며 경험할 수 있습니다. Kubeflow 기반 실습 튜토리얼로 실전 머신러닝 파이프라인 구축을 시작해보세요.

📝 Machine Learning & AI 튜토리얼 모두 보기
👉 카카오클라우드 바로 시작하기