동시접속자 관리의 혁신: 자연어로 제어하는AI 기반 IT 운영 혁명
세션 클러스터, APM, LLM의 결합으로 복잡한 시스템의 성능 데이터와 사용자 맥락 간의 간극을 메워, “무슨 일이 왜 일어났는지”를 명확히 설명하는 운영 체계를 제시합니다.
2025년 11월 12일

OPENMARU Cluster와 LLM이 만드는 차세대 운영 인텔리전스
복잡한 MSA 환경과 클라우드 네이티브 인프라에서 “지금 시스템에 무슨 일이 일어나고 있는가?”를 정확히 이해하는 일은 여전히 어렵습니다.
APM은 트랜잭션 단위의 세밀한 성능 데이터를 제공하지만, 사용자의 세션 단위 맥락은 놓치기 쉽습니다. 반대로 세션 클러스터는 사용자의 상태를 추적하지만, 과거 트랜잭션이나 성능 이력을 분석하기에는 한계가 있습니다.
이 백서는 바로 이 간극을 메우기 위해, OPENMARU Cluster(세션 클러스터)와 OPENMARU APM, 그리고 LLM(대규모 언어 모델)을 하나의 구조로 결합한 새로운 운영 아키텍처를 제시합니다
백서의 목적
이 백서의 목적은 명확합니다.
운영자가 단순히 지표를 ‘모니터링’하는 수준을 넘어, 운영 데이터를 LLM이 이해할 수 있는 언어적 맥락으로 전환하여 대화형으로 질의하고 제어할 수 있도록 만드는 것입니다.
즉, 실시간 세션 상태(현재)와 APM의 성능 이력(과거)을 하나의 데이터 흐름으로 묶어, 운영자가 “지난주 월요일 오후 2시경 접속자 급증의 원인이 무엇인가?”와 같은 질문을 던지면 LLM이 데이터를 근거로 논리적인 답을 제시하는 구조를 구현하는 것입니다
백서 요약
OPENMARU Cluster는 인메모리 데이터 그리드(IMDG) 기반의 세션 클러스터링 기술을 사용합니다.
이는 각 WAS 인스턴스의 메모리에 분산된 세션 데이터를 외부의 고가용성 데이터 그리드로 이동시켜 세션의 일관성과 지속성을 보장합니다. 장애가 발생하더라도 세션 정보는 보존되며, 사용자는 재로그인 없이 서비스를 계속 이용할 수 있습니다.
여기에 APM이 수집한 트랜잭션·URL·CPU·DB 쿼리 등의 지표를 결합함으로써, 시스템은 실시간 세션 맥락과 과거 트랜잭션을 동시에 파악할 수 있는 관측 인텔리전스를 갖게 됩니다
이 데이터를 LLM이 자연어로 해석할 수 있도록 공급하면, 운영자는 복잡한 쿼리 대신 “현재 로그인 중인 사용자의 동시접속 수와 CPU 사용률의 상관관계를 보여줘”와 같은 문장만으로 운영 데이터를 조회할 수 있습니다.
이는 운영 자동화의 패러다임을 완전히 바꾸는 접근입니다.
백서 주요 내용 요약
1장. 통합 아키텍처의 배경과 구성 요소
OPENMARU Cluster, OPENMARU APM, LLM의 세 가지 시스템이 유기적으로 결합해 동작합니다.
Cluster는 ‘현재 상태’, APM은 ‘과거 이력’, LLM은 ‘지능형 해석과 제어’를 담당합니다.
AI API 서버는 사용자의 자연어 요청을 분석해 세션 혹은 APM 데이터를 적절히 호출하며, 데이터의 일관성과 응답 속도를 보장하기 위해 구조적으로 조회와 제어를 분리합니다
2장. OPENMARU Cluster의 역할과 기술 구조
IMDG 기반의 Peer-to-Peer 아키텍처를 적용해 자동 리밸런싱과 수평 확장을 지원합니다.
Redis처럼 Primary/Replica 구조에 의존하지 않기 때문에 네트워크 병목이 적고, 세션 데이터의 강한 일관성(Strong Consistency)을 유지합니다.
이는 금융기관이나 공공기관처럼 세션 데이터의 무결성이 중요한 환경에서 특히 강점을 가집니다
3장. APM의 확장된 역할 – 운영 데이터의 허브
OPENMARU APM은 단순한 모니터링 도구가 아니라, 운영 데이터의 영속 저장소(System of Record)로 기능합니다.
세션 서버에서 수집한 휘발성 데이터를 APM DB에 영구 저장하고, 이를 기반으로 시간축 기반 분석(Time-based Replay)이 가능합니다.
이 구조를 통해 “사용자 세션-트랜잭션-리소스 사용률” 간의 연관 관계를 정밀하게 추적할 수 있습니다
4장. 동시접속자수의 재정의와 운영 데이터 해석
기존의 “활성 세션 수”와 실제 부하를 반영하는 “동시 사용자 수”를 구분해 정의합니다.
세션 서버는 실시간 세션 수를, APM은 실제 요청 기반의 사용자 수를 측정하며, LLM은 이 두 데이터를 종합해 병목 지점을 자동 탐지하거나 부하 분산 전략을 제안할 수 있습니다
5장. 공공·조달 환경에서의 적용
OPENMARU Cluster는 조달청 디지털서비스몰에 공식 등록되어 있으며, 공공기관이 별도 입찰 절차 없이 표준 절차로 도입 가능합니다.
국내 기술 지원 체계와 이기종 WAS 지원을 통해 공공·금융 환경의 복잡한 인프라에서도 안정적으로 동작합니다
마무리 – LLM이 운영의 언어를 바꾸다
운영자가 콘솔이나 대시보드를 넘어서, “운영 데이터를 말로 이해하고 제어할 수 있는 시대”를 준비하기 위한 기술적 청사진입니다.
OPENMARU Cluster와 APM, 그리고 LLM의 결합은 운영자의 사고 체계를 데이터 중심에서 맥락 중심(Context-driven)으로 바꿉니다.
지금까지는 수많은 로그와 차트를 해석해야 했다면, 앞으로는 LLM이 “왜 그런 현상이 발생했는가?”를 직접 설명하게 될 것입니다.
지금 바로 백서를 다운로드하시고, OPENMARU Cluster가 제시하는 AI 기반 운영 인텔리전스의 새로운 표준을 직접 확인해 보시기 바랍니다.







