MSAP.ai 블로그

MSAP.ai 블로그에서 최신 정보와 유용한 팁을 만나보세요. 다양한 콘텐츠와 전문 지식을 통해 더 나은 경험을 제공합니다.

Mastra AI 란 무엇인가?

이 글에서는 Mastra의 구조, MCP 표준, ChatGPT/Claude와의 비교, Cursor 등 AI 도구와의 차별성을 깊이 있게 설명합니다.

2025년 06월 19일

Mastra AI란 무엇인가?

Mastra AI: 오픈소스 AI 에이전트 프레임워크

LLM(Large Language Model)의 발전은 경이롭지만, 동시에 개발 현장에서는 기존 도구들의 한계와 파편화된 워크플로우, 그리고 특정 벤더에 대한 종속성 문제에 직면하고 있습니다. Mastra AI는 바로 이러한 문제의식에서 출발하여, 개발자에게 진정한 AI 활용의 자율성과 강력한 통합 환경을 제공하고자 탄생했습니다.

Mastra AI 란 무엇인가?

Mastra AI 는 누가 왜 언제 만들었는가

Mastra는 Gatsby 웹 프레임워크를 개발했던 팀이 2024년에 설립한 오픈소스 자바스크립트 AI 프레임워크입니다. 공동 창업자인 샘 Bhagwat, 쉐인 토마스, 아비 아이어(Abhi Aiyer)는 자바스크립트/타입스크립트 개발자들이 친숙한 환경을 벗어나지 않고도 강력한 AI 에이전트와 워크플로우를 구축, 배포, 평가할 수 있도록 하는 것을 목표로 Mastra를 만들었습니다. 이들은 지난 8년간 React 기반 오픈소스 웹 프레임워크 Gatsby를 성공시킨 경험이 있으며, AI 기술이 부상하는 가운데 JS/TS 개발자가 Python 생태계에 의존하지 않고도 AI 기능을 구현할 수 있는 도구의 필요성을 느꼈습니다.

Mastra 팀은 2024년 10월경부터 본격적으로 개발을 시작했고, Y Combinator 2025 겨울 배치에 합류하여 오픈소스 프로젝트로 공개하였습니다. 출시 직후 Mastra는 개발자 커뮤니티의 큰 주목을 받아, 해커뉴스와 GitHub에서 단기간에 수천 개의 스타를 획득하며 빠르게 확산되었습니다. 이러한 관심은 AI 애플리케이션 개발의 복잡성을 해소하려는 Mastra의 접근법에 많은 개발자와 기업이 공감했기 때문입니다. 기존에 개발자들은 프롬프트 디버깅, 툴(도구) 호출 제어, 에이전트 메모리 관리 등을 일일이 해결해야 했는데, Mastra는 이러한 문제를 체계적으로 다루기 위해 태어났습니다.

오픈소스에 대한 투자는 이 프로젝트가 장기적으로 생태계를 변화시킬 전략적 가치를 지닌 것으로 평가되었음을 보여줍니다. 요약하면, Mastra는 Gatsby로 유명한 숙련된 오픈소스 전문가 팀이 2024년에 착수한 프로젝트로, JS/TS 개발자를 위한 통합 AI 프레임워크라는 비전을 갖고 탄생했습니다. 그 배경에는 분산된 AI 도구 환경을 하나의 일관된 스택으로 통합하여 개발 효율과 품질을 높이겠다는 의도가 자리하고 있습니다.

기존의 AI 도구들은 특정 LLM 모델에 종속되거나, 클라우드 기반 서비스에 의존하여 민감한 데이터의 외부 유출 우려를 낳았습니다. 또한, 개발자의 고유한 워크플로우와 기존 도구들과의 매끄러운 통합이 어려워 생산성 향상에 걸림돌이 되기도 했습니다.

이러한 배경 속에서, 개발자들이 직접 자신들의 개발 환경과 LLM을 유기적으로 연결하고, 데이터 프라이버시를 확보하며, 특정 기술 스택에 구애받지 않고 자유롭게 AI 모델을 선택하고 활용할 수 있는 개방형 플랫폼의 필요성이 대두되었습니다. Mastra AI는 바로 이러한 개발자들의 열망과 문제 해결 의지가 응집되어, 오픈소스 커뮤니티를 중심으로 구체화되기 시작했습니다.

Mastra AI 는 무엇인가

Mastra는 대규모 언어 모델(LLM) 기반 애플리케이션을 구조적으로 개발할 수 있게 해주는 여러 핵심 개념과 컴포넌트로 구성되어 있습니다. 주요 요소로는 에이전트(Agent), AI 워크플로우(Workflow) , 도구(툴) 통합을 위한 플러그인 구조 , 그리고 이를 가능케 하는 MCP (Model Context Protocol) 등이 있습니다. Mastra의 아키텍처는 이러한 구성 요소들을 모듈화 하고 확장성 있게 연결하여, 복잡한 AI 기능도 마치 프레임워크에 컴포넌트를 추가하듯 손쉽게 구현할 수 있도록 설계되었습니다.

Mastra AI는 한마디로 정의하자면, 오픈소스, LLM-agnostic(LLM에 구애받지 않는), 그리고 로컬 우선(Local-first) AI 개발자 플랫폼입니다.

기존에는 LLM을 개발 워크플로우에 통합하려고 할 때, 각기 다른 LLM API와 도구들의 파편화된 인터페이스로 인해 일관성 있는 컨텍스트 전달이 어려웠습니다. Mastra는 MCP를 통해 이러한 문제를 해결합니다. 개발자는 Mastra CLI(Command Line Interface)나 VS Code 확장 기능 등을 사용하여 로컬 환경의 다양한 컨텍스트 정보(예: Git 변경 사항, 열려 있는 파일, 터미널 출력 등)를 MCP 형식으로 LLM에 전달할 수 있습니다. 이를 통해 LLM은 마치 개발자와 함께 페어 프로그래밍을 하는 것처럼, 현재 상황에 대한 깊이 있는 이해를 바탕으로 더욱 정확하고 유용한 응답을 생성할 수 있게 됩니다.

또한, Mastra는 LLM-agnostic 철학을 견지합니다. 이는 개발자가 OpenAI의 GPT 시리즈, Anthropic의 Claude, 혹은 로컬에서 운영 가능한 오픈소스 LLM 등 어떤 모델이든 자유롭게 선택하여 Mastra 플랫폼과 연동할 수 있음을 의미합니다. 이는 특정 벤더에 대한 종속성을 피하고, 프로젝트의 특성이나 비용, 성능 요구사항에 따라 최적의 LLM을 유연하게 활용할 수 있는 길을 열어줍니다. 로컬 우선 접근 방식은 민감한 소스 코드나 기업 데이터가 외부로 유출될 위험 없이 개발자 자신의 머신에서 AI 기능을 활용할 수 있도록 하여 보안과 프라이버시를 극대화합니다.

AI 기반 도구들과의 구조적·철학적 차이

Mastra가 제시하는 접근법은 기존의 대표적인 LLM 기반 도구나 서비스와 상당히 다른 철학과 구조를 가지고 있습니다. 여기서는 OpenAI의 ChatGPT, Anthropic의 Claude, 그리고 AI 코딩 도구인 Cursor 등과 비교하여 Mastra의 차별성을 살펴보겠습니다.

Mastra vs. ChatGPT/Claude – 프레임워크 vs 서비스

ChatGPT나 Claude와 같은 제품은 대규모 언어 모델 자체를 서비스화하여 자연어 질의응답이나 간단한 작업 수행에 초점을 맞추고 있습니다. 이들은 강력한 언어 모델을 바탕으로 하고 있지만, 사용자는 프롬프트를 던지고 응답을 받는 단일 회차 상호작용에 가깝습니다. 내부적으로 몇 가지 툴 호출 기능(예: ChatGPT 플러그인, 함수 호출)이 있더라도, 그것은 해당 플랫폼에 종속된 제한적인 기능이며 개발자가 임의로 워크플로우를 구성하거나 모델의 동작 로직을 커스터마이징하기 어렵습니다. 반면 Mastra는 제품이나 기능을 개발하기 위한 프레임워크로서, ChatGPT나 Claude 같은 LLM을 구성 요소로 활용하는 상위 개념입니다. 다시 말해, ChatGPT가 완성된 AI 비서라면, Mastra는 자신만의 AI 비서나 에이전트를 만들 수 있는 도구상자인 셈입니다.

가장 큰 구조적 차이는 개방성과 통제권입니다. ChatGPT와 Claude는 모델과 플랫폼이 폐쇄적으로 관리되며, 사용자는 API를 호출해 결과를 받을 뿐 내부 동작을 볼 수 없습니다. 이에 반해 Mastra는 오픈소스이며 자체 호스팅도 가능하므로, 기업 CTO 입장에서 AI 스택에 대한 완전한 통제권과 가시성을 확보할 수 있습니다. 예를 들어 Mastra로 구축한 에이전트는 기업 내부 서버나 원하는 클라우드에 배포할 수 있고, 데이터가 오가는 흐름을 모두 직접 관리할 수 있습니다. 반면 ChatGPT를 쓰면 민감한 데이터까지 외부 서비스로 보내야 하고, 결과 산출 과정을 신뢰하는 수밖에 없습니다. 데이터 주권과 보안 측면에서 Mastra의 오픈소스 프레임워크 방식은 매력적입니다.

철학적으로도, Mastra는 개발자에게 AI 조립 키트를 제공하여 창의적인 사용처를 설계하게끔 합니다. ChatGPT/Claude는 범용 AI 비서로서 사용하지만, 특정 산업 도메인이나 사용자 시나리오에 최적화된 에이전트를 만들기는 어렵습니다. Mastra에서는 워크플로우 그래프를 통해 여러 단계의 결정과 작업을 프로그래밍할 수 있으므로, 예를 들어 “고객 지원 자동화 에이전트”를 만들 때 질의 분류 → FAQ 검색 → 요약 답변 생성 같은 맞춤 로직을 구현할 수 있습니다. ChatGPT로는 이러한 멀티스텝 과정을 보장하려면 복잡한 프롬프트 기법에 의존해야 하고 여전히 신뢰성을 담보하기 어렵지만, Mastra는 아예 구조로 이런 과정을 엄격하게 설계 및 재현 가능하게 합니다.

또한 툴 통합의 방식에서 큰 차이가 있습니다. OpenAI ChatGPT의 플러그인은 OpenAI가 정의한 전용 스펙과 심사 과정을 거쳐야 하며, 호환성도 ChatGPT 환경에 한정됩니다. 반면 Mastra는 앞서 설명한 MCP 표준을 통해 훨씬 열린 생태계를 지향합니다. Anthropic Claude 역시 MCP의 제안 기관이지만, Claude 자체가 제공하는 도구통합 기능은 제한적이며, 주로 개발자가 별도 에이전트를 구축해야 합니다. Mastra 에이전트는 MCP 호환 툴을 자동으로 탐색 및 사용하므로, 사전 제작된 수많은 오픈소스 툴을 곧바로 활용할 수 있고, 특정 벤더의 폐쇄형 API에 묶이지 않습니다. 요컨대 Mastra의 철학은 “한 회사의 생태계에 얽매이지 않는 범용 AI 플랫폼”인 반면, ChatGPT/Claude는 “자사 LLM의 기능을 극대화한 완결형 서비스”라고 할 수 있습니다.

마지막으로 확장성과 지속적인 개선 측면에서, Mastra는 커뮤니티 주도로 진화하기 때문에 새로운 모델, 새로운 툴, 새로운 기법이 나오면 빠르게 통합될 수 있습니다. 반면 ChatGPT나 Claude는 신규 기능 추가가 공급자에 의해 통제되고 느릴 수 있습니다. 예를 들어 Mastra는 출시 후 불과 몇 달 사이에 다양한 개선(워크플로우 시각화, MCP 지원 툴 증가 등)을 이뤘고, 심지어 팀이 AI 에이전트 구축 원칙에 대한 책까지 집필하여 지식 공유를 가속화하고 있습니다. 이러한 오픈소스 커뮤니티의 민첩함은 폐쇄형 서비스와의 중요한 차별점입니다.

Mastra vs. Cursor 등 개발자 도구 – 범용 플랫폼 vs 특화 제품

Cursor는 개발용 AI 코드 비서로 알려진 도구로, IDE 환경에서 코드 자동완성과 대화형 질의응답을 제공하는 특정 영역 특화 제품입니다. Cursor 역시 최근 MCP 표준을 일부 지원하여, IDE 내 AI 에이전트가 외부 지식베이스(예: 문서 서버)에 질의하도록 하는 기능을 도입했습니다. 예를 들어 Cursor 사용자는 Mastra가 제공하는 MCP 문서 서버를 연결해, 코딩 중에 Mastra 프레임워크의 문서를 실시간 조회함으로써 더 정확한 답변을 얻을 수 있습니다. 이는 MCP의 보편성 덕분에 가능한 통합 사례로, Mastra가 오픈 표준을 따름으로써 다른 제품과도 쉽게 연동될 수 있음을 보여줍니다.

그러나 Cursor 자체는 Mastra와 지향점이 다릅니다. Cursor는 AI 기반 IDE로서, 개발자가 코딩할 때 도움을 주는 단일 애플리케이션입니다. 반면 Mastra는 어떤 애플리케이션이든 AI 기능을 넣고자 할 때 사용하는 범용 프레임워크입니다. 쉽게 말해 Cursor는 제품이고 Mastra는 플랫폼에 가깝습니다. Mastra를 사용하면 Cursor 같은 AI 코딩 비서도 직접 구축할 수 있습니다. 예컨대 Mastra로 “코딩 도우미 에이전트” 워크플로우를 만들고, VSCode 확장과 연계하면 자체적인 Cursor 비슷한 기능을 구현할 수도 있습니다. 이때 Mastra의 장점은 도메인에 제한이 없다는 것입니다. Cursor는 코딩 도메인에 최적화되어 있지만, Mastra는 고객 지원, 데이터 수집, 의료 기록 정리, 금융 리포트 생성어떤 분야의 에이전트든지 만들 수 있는 범용 엔진을 제공합니다. 실제로 현재 Mastra 사용자들은 CAD 도면 생성, 웹 크롤링을 통한 영업 리드 수집, 의료 기록 요약 자동화 등 매우 다양한 에이전트 워크플로우를 구축하고 있습니다. 이러한 응용 범위의 폭이 Cursor 같은 전문 제품과 Mastra 같은 범용 프레임워크의 차이입니다.

또한 오픈소스 여부도 중요한 차이입니다. Cursor를 비롯한 많은 상용 AI 도구들은 소스가 공개되어 있지 않아 사용자 커스터마이징이나 내부 로직 변경이 불가능하지만, Mastra는 완전한 오픈소스로 제공되므로 필요에 따라 프레임워크 자체를 포크하거나 기여하여 진화시킬 수 있습니다. 기업의 특수한 요구사항(예를 들어 사내 보안 표준 준수나 레거시 시스템 연동)이 있을 때, 오픈소스인 Mastra는 직접 확장하거나 수정해서 사용할 수 있지만 폐쇄형 도구는 업데이트를 기다리는 수밖에 없습니다. 철학적으로 Mastra는 “한가지 용도의 완제품을 구매”하는 대신 “나만의 제품을 직접 만들 수 있는 도구를 채택”하는 접근입니다. CTO 관점에서는 Mastra를 도입함으로써 내부에 AI 역량을 축적하고 필요에 따라 원하는 기능을 빚어낼 수 있다는 장점이 있습니다. 반대로 특정 상용 도구에 의존하면 그 도구의 로드맵에 종속되고, 커스터마이징 자유도가 떨어집니다.

Mastra가 오픈소스이기 때문에 기대할 수 있는 것은 무엇인가?

Mastra가 오픈소스로 제공된다는 점은 기술적으로나 사업적으로 매우 중요한 전략적 선택입니다. 오픈소스 전략이 Mastra 아키텍처의 확장성·모듈성과 맞물려 어떤 이점과 파급효과를 가져오는지 살펴보겠습니다.

첫째, 개방형 표준 준수와 호환성

Mastra는 앞서 언급한 MCP와 같은 개방형 표준을 전면 채택함으로써, 특정 업체나 기술에 종속되지 않는 중립적 플랫폼 지위를 확보했습니다. 이는 오픈소스 철학과 맥을 같이 하는데, 표준이 개방되어 있으니 누구나 Mastra와 상호 운용되는 도구나 서비스를 만들 수 있습니다. 실제로 여러 AI 기업들이 MCP 생태계에 참여하여 툴 레지스트리, 검색, 호스팅 등의 주변 인프라를 빠르게 발전시키고 있습니다. 예를 들어 OpenTools라는 회사는 MCP 툴을 검색하고 큐레이션하는 서비스를, PulseMCP는 MCP 레지스트리 표준화에 기여하고, MCP.run은 WebAssembly 기반으로 MCP 호스팅을 강화하는 등, 각자 전문 영역에서 MCP 퍼즐의 일부를 해결하고 있습니다. Mastra가 이 표준을 채택했기에 이러한 외부 발전을 곧바로 흡수할 수 있고, Mastra 사용자들은 풍부한 생태계의 혜택을 누릴 수 있습니다. 다시 말해 Mastra를 도입하면 단일 프레임워크만 얻는 게 아니라, 계속 성장하는 오픈 툴 생태계 전체와 연결되는 효과가 있습니다.

둘째, 모듈성과 커뮤니티 기여로 인한 빠른 혁신

Mastra의 모듈식 아키텍처는 커뮤니티 구성원들이 특정 기능을 개선하거나 추가 컴포넌트를 제작해 공유하기 쉽게 되어 있습니다. Mastra가 오픈소스로 공개된 이후, 전 세계 개발자들이 GitHub를 통해 이슈를 제기하고 코드 기여를 시작하면서 제품의 완성도가 빠르게 높아지고 있습니다. MCP 자체도 오픈소스 커뮤니티의 제안으로 공식 레지스트리 스펙 등이 활발히 논의되고 개선되는 중입니다. Mastra 팀도 이런 움직임에 적극 호응하여 프레임워크 차원에서 MCP 레지스트리 연동 클라이언트 등을 실험하고 제안하는 등, 프레임워크와 표준이 함께 진화하고 있습니다. 이는 폐쇄형 솔루션에서는 보기 어려운 민첩한 생태계 혁신으로, Mastra를 채택한 조직은 이런 혁신의 직접적인 수혜자가 됩니다.

셋째, 벤더 락인 없는 장기적 안정성과 신뢰

핵심 인프라를 특정 벤더에 의존하면 향후 정책 변경이나 서비스 중단, 과금 문제 등의 위험이 있습니다. Mastra는 오픈소스 프로젝트로 GitHub에 코드가 공개되어 있고, MIT 라이선스(혹은 유사한 자유 라이선스) 하에 제공되므로 지속적인 사용 보장이 뛰어납니다. 극단적으로 Mastra 회사가 없어지더라도 커뮤니티가 포크하여 발전시킬 수 있고, 소스가 공개된 만큼 내부 감사 및 보안 검토도 가능합니다. 이는 상용 독점 API를 사용하는 것에 비해 기업용도로 안심하고 채택할 수 있는 요인입니다. Mastra가 짧은 기간에 업계의 주목을 받고 투자도 유치한 것은 이런 오픈소스 접근의 전략적 가치를 모두가 높이 샀기 때문입니다. 특히 AI 분야에서는 개방형 기술이 사실상의 표준으로 자리잡는 경향이 강합니다. 오늘날 머신러닝 인프라의 많은 부분이 오픈소스 라이브러리로 구성되는 것처럼, LLM 시대에도 개방형 프로토콜과 프레임워크가 주류가 될 가능성이 큽니다.

넷째, 생태계 파급효과와 네트워크 효과

Mastra의 오픈 전략은 단순히 코드를 공개하는데 그치지 않고, 개발자 교육과 커뮤니티 확장으로 이어지고 있습니다. Mastra 팀은 개발자들을 위해 “Principles of Building AI Agents”라는 책을 출간하고, 공식 Discord 채널과 해커톤(MASTRA.BUILD) 등을 통해 지식을 공유하고 생태계를 키우고 있습니다. 이러한 노력은 Mastra 주변에 열성적인 개발자 커뮤니티를 형성하고, 더 많은 써드파티 통합과 툴 기여를 유도합니다. 하나의 강력한 오픈소스 코어(Mastra)를 중심으로 관련 도구와 서비스들이 유기적으로 연결되면, 네트워크 효과로 인해 그 가치가 배가됩니다. 예를 들어 Apify라는 웹스크레이핑 플랫폼에서는 Mastra MCP 에이전트를 Apify 액터와 연동하는 커넥터를 공개하여, Mastra 에이전트가 Apify의 풍부한 웹 크롤링 기능을 쉽게 활용하도록 했습니다. 이렇게 생태계 참여자들이 늘어날수록 Mastra를 사용하는 기업은 추가 개발 노력 없이도 새로운 기능과 데이터를 활용할 수 있게 됩니다. 결국 오픈소스 + 표준 기반의 생태계 전략이 Mastra의 성능과 활용도를 지속적으로 강화하는 선순환이 만들어지고 있는 것입니다.

마무리

Mastra는 LLM 시대의 새로운 개발 패러다임을 제시하고 있습니다. Gatsby로 웹 생태계에 큰 영향을 주었던 팀이 다시 한번 오픈소스 중심 전략을 들고 나온 것은 매우 고무적입니다. 기술적으로 Mastra는 모듈식 AI 오케스트레이션 아키텍처와 MCP 표준을 결합하여, 기존 솔루션들과 차별화된 유연성, 확장성, 그리고 협업적 진화의 가능성을 증명해 보이고 있습니다. 구조적으로도 ChatGPT나 Claude 같은 폐쇄형 모델 서비스와 달리 개발자가 주도권을 쥐고 AI 에이전트를 설계할 수 있는 프레임워크라는 점에서 철학의 전환을 보여줍니다.

LLM, AI 에이전트 기술은 아직 빠르게 변화하는 초기 단계이지만, Mastra의 개방형 생태계 접근은 향후 표준과 모범 사례를 주도할 잠재력이 있습니다. Mastra가 강조하는 MCP 기반의 범용 플러그인 시스템은 궁극적으로 다양한 AI 도구들이 한데 연결되는 거대한 생태계를 이루는 토대가 될 수 있습니다. 이는 개별 기업이나 제품이 독점적으로 구축한 생태계보다 훨씬 유연하고 혁신에 개방적이어서, 새로운 AI 기능이나 서비스가 등장하면 쉽게 전체 생태계에 흡수될 것입니다. 예를 들어 앞으로 의료, 제조, 교육 등 각 산업별 특화 AI 툴이 MCP 규격으로 나올 때, Mastra 에이전트는 별도 개발 없이 그들을 곧바로 활용해 종합적인 AI 워크플로우 솔루션을 만들어낼 수 있을 것입니다.

Mastra의 가장 큰 매력은, 자사의 AI 역량을 내부 자산으로 축적하면서 업계 표준의 이점을 함께 누릴 수 있다는 점일 것입니다. Mastra를 도입하면 팀은 AI 기능을 “조립”하는 능력을 갖추게 되고, 이는 마치 내부에 맞춤형 ChatGPT를 여러 개 두고 활용하는 것과 같습니다. 또한 오픈소스이므로 비용 효율적이고, 필요에 따라 포크하여 사내 전용으로 발전시키는 것도 자유롭습니다. 이러한 유연성, 주권, 커뮤니티 드라이브는 폐쇄형 솔루션이 줄 수 없는 가치입니다.

결론적으로, Mastra는 개방성과 모듈화를 무기로 LLM 활용의 새 지평을 열고 있습니다. 기존 LLM 도구들과 견줘볼 때 Mastra가 보여주는 차별성은 분명하며, 이는 곧 Mastra가 그리는 미래 가능성으로 이어집니다.한 가지 스택, 한 세트의 프리미티브로 AI 워크플로우를 구축”한다는 Mastra의 철학대로, 복잡한 AI 솔루션도 이제는 Mastra라는 하나의 개방형 플랫폼 안에서 효율적으로 구현되고 공유될 것입니다. 이러한 변화는 AI 기술 도입의 문턱을 낮추고, 더 많은 조직들이 AI를 자신만의 방식으로 혁신할 수 있게 하리라 기대합니다. Mastra의 등장은 AI 소프트웨어 생태계에서 오픈소스 모듈형 플랫폼의 힘을 다시 한번 입증하며, 다가올 시대에 표준을 선도하는 핵심 플레이어로 자리매김할 가능성이 충분합니다. Mastra가 제공하는 미래지향적 이점을 전략적으로 활용하는 방안을 고민해볼 시점입니다.

References & Related Links

Share This Story, Choose Your Platform!

Go to Top