arrow_back

Article

200달러짜리 AI 코딩 에이전트, 공짜 오픈소스로 무력화? 개발자들의 반란, 구스(Goose)가 불러온 파장 분석

Published Mar 23, 2026

여러분은 한 달에 수십만 원을 내고 AI 코딩 도구를 사용하면서, 불과 몇 시간 만에 ‘사용량 제한’ 메시지를 마주하고 좌절해 본 경험이 있으신가요? 아니면 중요한 프로젝트 코드를 클라우드 서버로 전송해야 한다는 사실에 늘 찜찜함을 느끼진 않으셨나요? 인공지능이 코드를 작성하고 디버깅하며 배포하는 혁명적인 시대에 살고 있지만, 그 달콤한 자유 뒤에는 늘 비용과 통제의 그림자가 따라다녔습니다. 특히 AI 에이전트 시장에서 이 그림자는 더욱 짙게 드리워져 있었습니다.

최근 앤트로픽(Anthropic)의 AI 코딩 에이전트 ‘클로드 코드(Claude Code)‘가 개발자들 사이에서 뜨거운 감자로 떠오르며 격렬한 논쟁을 불러일으켰습니다. 뛰어난 성능만큼이나 논란의 중심에 선 것은 바로 ‘가격’과 ‘제한적인 사용 정책’이었습니다. 수많은 개발자가 클로드 코드의 잠재력에 열광하면서도, 점차 감당하기 어려워지는 월별 요금과 예측 불가능한 사용량 제한에 불만을 표출하기 시작했죠. 그런데 바로 이때, 금융 기술 기업 블록(Block, 구 Square)이 개발한 무료 오픈소스 AI 에이전트 ‘구스(Goose)‘가 등장하며 판도를 뒤흔들고 있습니다. 클로드 코드와 거의 동일한 기능을 제공하면서도, 사용자의 로컬 머신에서 완전히 독립적으로 실행되는 이 ‘자유로운’ 대안은 과연 AI 코딩 시장에 어떤 변화를 가져올까요? 솔직히 말해서, 이건 단순한 도구의 등장을 넘어선, 개발자들의 권리 선언이자 AI 접근 방식에 대한 근본적인 질문을 던지는 사건이라고 생각합니다.

앤트로픽 클로드 코드의 ‘요금제 논란’, 무엇이 문제였나?

클로드 코드의 등장은 소프트웨어 개발자들의 상상력을 자극하기에 충분했습니다. 터미널 기반의 이 AI 에이전트는 코드 작성, 디버깅, 배포를 자율적으로 수행하며 ‘개발자의 미래’를 제시하는 듯했죠. 하지만 사용량에 따라 월 20달러에서 최대 200달러에 달하는 가격 정책은 빠르게 개발자들의 불만을 촉발했습니다.

앤트로픽은 클로드 코드를 유료 구독 모델 내에 포함시켰습니다.

  • 무료 플랜: 클로드 코드에 대한 접근 권한이 전혀 없습니다.
  • 프로 플랜: 월 17달러(연간 청구 시) 또는 월 20달러로, 5시간마다 10~40개의 프롬프트로 제한됩니다. 진지하게 코딩하는 개발자라면 몇 분 안에 이 제한에 도달하기 일쑤입니다.
  • 맥스 플랜: 월 100달러 및 200달러 플랜으로, 각각 50200개, 200800개의 프롬프트를 제공하며 앤트로픽의 가장 강력한 모델인 **클로드 4.5 오푸스(Claude 4.5 Opus)**에 접근할 수 있습니다. 하지만 이 프리미엄 플랜조차 개발 커뮤니티를 격분시킨 제한에서 자유롭지 못했습니다.

문제는 작년 7월 말 앤트로픽이 발표한 새로운 주간 사용량 제한에서 더욱 심화되었습니다. 새로운 시스템 하에서 프로 사용자들은 주당 4080시간의 소네트 4(Sonnet 4) 사용 시간을 받습니다. 200달러 맥스 티어 사용자들은 240480시간의 소네트 4와 24~40시간의 오푸스 4를 받습니다. 무려 5개월이 지난 지금도 개발자들의 불만은 가라앉지 않고 있습니다.

왜 그럴까요? ‘시간’이라는 단위가 실제 시간을 의미하는 것이 아니기 때문입니다. 이들은 코드베이스 크기, 대화 길이, 처리되는 코드의 복잡성에 따라 wildly하게 달라지는 토큰 기반의 제한입니다. 독립적인 분석에 따르면, 실제 세션당 제한은 프로 사용자의 경우 약 44,000토큰, 200달러 맥스 플랜의 경우 220,000토큰에 해당합니다. “그것은 혼란스럽고 모호합니다”라고 한 개발자는 널리 공유된 분석에서 꼬집었습니다. “그들이 ‘오푸스 4 24~40시간’이라고 말할 때, 실제로 무엇을 얻는지는 아무런 유용한 정보도 제공하지 못합니다.”

레딧(Reddit)과 개발자 포럼에서의 반발은 거셌습니다. 일부 사용자들은 집중적인 코딩 후 30분 만에 일일 제한에 도달했다고 보고했고, 다른 이들은 새로운 제한을 “농담”이자 “실제 작업에는 사용할 수 없는” 것이라며 구독을 완전히 취소했습니다. 앤트로픽은 이 제한이 사용자 5% 미만에 영향을 미치며, “24시간 내내 백그라운드에서 클로드 코드를 지속적으로 실행하는” 사람들을 대상으로 한다고 해명했습니다. 그러나 이 수치가 맥스 구독자의 5%를 의미하는지, 아니면 전체 사용자의 5%를 의미하는지 명확히 밝히지 않아 여전히 논란의 여지를 남겼습니다.

개인적으로 이 부분에서 주목할 점은 단순히 ‘비용이 비싸다’는 불만을 넘어, **‘예측 불가능성’과 ‘통제권 상실’**이 개발자들의 핵심 불만이라는 사실입니다. 개발은 예측 가능한 환경에서 안정적으로 이루어져야 하는데, 언제 갑자기 제한에 걸릴지 모르는 모호한 정책은 워크플로우를 심각하게 저해합니다. 사용자는 자신이 지불하는 대가로 어떤 서비스를 얼마나 이용할 수 있는지 명확히 알고 싶어 하며, 이는 AI 서비스 모델이 반드시 해결해야 할 근본적인 과제라고 생각합니다.

온전히 ‘내 것’으로 만드는 AI, 블록(Block)의 구스(Goose)는 어떻게 작동하나?

클로드 코드의 요금제 논란이 한창인 가운데, 구스(Goose)는 동일한 문제에 대해 근본적으로 다른 접근 방식을 제시합니다. 잭 도시(Jack Dorsey)가 이끄는 결제 회사 블록(Block)이 개발한 구스는 엔지니어들이 “온-머신 AI 에이전트(on-machine AI agent)“라고 부르는 것입니다. 클로드 코드가 쿼리를 앤트로픽 서버로 보내 처리하는 것과 달리, 구스는 사용자가 직접 다운로드하고 제어하는 오픈소스 언어 모델을 사용하여 로컬 컴퓨터에서 완전히 실행될 수 있습니다.

구스의 핵심 매력은 바로 **‘자유’**에 있습니다. 구독료가 없습니다. 클라우드 종속성이 없습니다. 5시간마다 초기화되는 사용량 제한도 없습니다. 파트 사린(Parth Sareen) 소프트웨어 엔지니어는 최근 라이브스트림에서 이 도구를 시연하며 “당신의 데이터는 당신과 함께 머뭅니다. 끝.”이라고 말했습니다. 이 발언은 구스의 핵심 매력을 정확히 포착합니다. 구스는 개발자에게 AI 기반 워크플로우에 대한 완벽한 통제권을 부여하며, 심지어 비행기 안에서도 오프라인으로 작업할 수 있는 능력을 제공합니다.

이 프로젝트의 인기는 가히 폭발적입니다. 구스는 코드 공유 플랫폼인 깃허브(GitHub)에서 26,100개 이상의 스타를 자랑하며, 362명의 기여자(contributor)와 출시 이후 102개의 릴리스를 기록했습니다. 가장 최신 버전인 1.20.1은 2026년 1월 19일에 출시되었는데, 이는 상용 제품에 버금가는 개발 속도를 보여줍니다.

구스의 문서는 이 도구가 “코드 제안을 넘어(beyond code suggestions)” “어떤 LLM과도 설치, 실행, 편집, 테스트”할 수 있다고 설명합니다. 여기서 “어떤 LLM과도(any LLM)“라는 구절이 핵심 차별점입니다. 구스는 설계상 모델에 구애받지 않습니다(model-agnostic). API 접근 권한이 있다면 앤트로픽의 클로드 모델에 연결할 수 있습니다. OpenAI의 GPT-5나 구글의 제미니(Gemini)를 사용할 수도 있죠. Groq나 OpenRouter와 같은 서비스를 통해 라우팅할 수도 있습니다. 아니면 – 사실 여기가 가장 흥미로운 부분입니다 – Ollama와 같은 도구를 사용하여 사용자의 하드웨어에서 오픈소스 모델을 다운로드하고 실행함으로써 완전히 로컬에서 실행할 수도 있습니다.

Claude Code costs up to $200 a month. Goose does the same thing for free.

실질적인 의미는 상당합니다. 로컬 설정에서는 구독료도, 사용량 상한선도, 속도 제한도 없으며, 코드가 외부 서버로 전송될 염려도 없습니다. AI와의 대화는 여러분의 머신을 절대 벗어나지 않습니다. 사린은 시연 중에 “비행기에서 Ollama를 늘 사용합니다. 정말 즐겁습니다!”라고 말하며, 로컬 모델이 개발자들을 인터넷 연결의 제약에서 어떻게 해방시키는지 강조했습니다.

구스(Goose)가 선사하는 ‘자율적 개발 환경’과 그 활용법

구스는 명령줄 도구(CLI) 또는 데스크톱 애플리케이션으로 작동하며 복잡한 개발 작업을 자율적으로 수행할 수 있습니다. 처음부터 전체 프로젝트를 구축하고, 코드를 작성 및 실행하며, 오류를 디버깅하고, 여러 파일에 걸쳐 워크플로우를 조정하고, 외부 API와 상호작용할 수 있습니다. 이 모든 것을 끊임없는 인간의 감독 없이도 가능하게 합니다.

이러한 아키텍처는 AI 업계에서 “도구 호출(tool calling)” 또는 “함수 호출(function calling)“이라고 부르는 능력, 즉 언어 모델이 외부 시스템에 특정 작업을 요청하는 능력에 의존합니다. 구스에게 새 파일을 만들거나, 테스트 스위트를 실행하거나, 깃허브 풀 리퀘스트(pull request)의 상태를 확인하도록 요청하면, 구스는 단순히 어떤 일이 일어나야 하는지 설명하는 텍스트를 생성하는 것이 아닙니다. 실제 해당 작업을 실행합니다.

이 기능은 기본 언어 모델에 크게 의존합니다. 버클리 함수 호출 리더보드(Berkeley Function-Calling Leaderboard)에 따르면, 앤트로픽의 클로드 4 모델이 현재 도구 호출에서 가장 뛰어난 성능을 보입니다. 그러나 새로운 오픈소스 모델들도 빠르게 추격하고 있습니다. 구스의 문서는 강력한 도구 호출 지원을 제공하는 여러 옵션을 강조합니다. 메타(Meta)의 라마(Llama) 시리즈, 알리바바(Alibaba)의 큐웬(Qwen) 모델, 구글의 젬마(Gemma) 변형, 딥시크(DeepSeek)의 추론 중심 아키텍처 등이 그 예입니다.

이 도구는 또한 AI 에이전트를 외부 서비스에 연결하기 위한 새로운 표준인 **모델 컨텍스트 프로토콜(Model Context Protocol, MCP)**과 통합됩니다. MCP를 통해 구스는 데이터베이스, 검색 엔진, 파일 시스템, 타사 API에 접근할 수 있어 기본 언어 모델이 제공하는 것 이상의 기능을 확장합니다.

로컬 모델로 구스 설정하기

완전히 무료이며 개인 정보 보호가 보장되는 설정을 원하는 개발자를 위해, 이 과정은 세 가지 주요 구성 요소로 이루어집니다: 구스 자체, Ollama (오픈소스 모델을 로컬에서 실행하기 위한 도구), 그리고 호환되는 언어 모델입니다.

  1. 1단계: Ollama 설치 Ollama는 개인 하드웨어에서 대규모 언어 모델을 실행하는 과정을 획기적으로 단순화하는 오픈소스 프로젝트입니다. 모델 다운로드, 최적화 및 서비스를 간단한 인터페이스를 통해 처리합니다.

    • ollama.com에서 Ollama를 다운로드하여 설치합니다.
    • 설치 후, 단일 명령으로 모델을 가져올 수 있습니다. 코딩 작업을 위해 큐웬 2.5(Qwen 2.5)는 강력한 도구 호출 지원을 제공합니다: ollama run qwen2.5
    • 모델은 자동으로 다운로드되어 컴퓨터에서 실행되기 시작합니다.
  2. 2단계: 구스 설치 구스는 데스크톱 애플리케이션과 명령줄 인터페이스(CLI)로 모두 사용할 수 있습니다. 데스크톱 버전은 더 시각적인 경험을 제공하며, CLI는 터미널에서만 작업하는 것을 선호하는 개발자들에게 적합합니다.

    • 설치 지침은 운영 체제에 따라 다르지만, 일반적으로 구스의 깃허브 릴리스 페이지에서 다운로드하거나 패키지 관리자를 사용하는 방식입니다. 블록은 macOS (Intel 및 Apple Silicon 모두), Windows 및 Linux용 사전 구축된 바이너리(binary)를 제공합니다.
  3. 3단계: 연결 구성

    • 구스 데스크톱에서는 설정(Settings)으로 이동한 다음, 공급자 구성(Configure Provider)을 선택하고 Ollama를 선택합니다. API 호스트가 http://localhost:11434 (Ollama의 기본 포트)로 설정되어 있는지 확인하고 제출(Submit)을 클릭합니다.
    • 명령줄 버전의 경우, goose configure를 실행하고 “Configure Providers”를 선택한 다음 Ollama를 선택하고 메시지가 나타나면 모델 이름을 입력합니다.

이것으로 끝입니다. 구스는 이제 여러분의 하드웨어에서 완전히 실행되는 언어 모델에 연결되어, 구독료나 외부 종속성 없이 복잡한 코딩 작업을 실행할 준비가 되었습니다.

RAM, 처리 능력, 그리고 알아야 할 트레이드오프

가장 궁금한 질문은 당연히, 어떤 종류의 컴퓨터가 필요하냐는 것입니다. 대규모 언어 모델을 로컬에서 실행하려면 일반적인 소프트웨어보다 훨씬 더 많은 컴퓨팅 자원이 필요합니다. 핵심 제약은 메모리, 특히 대부분의 시스템에서는 RAM 또는 가속을 위해 전용 그래픽 카드를 사용하는 경우 VRAM입니다.

블록의 문서는 32기가바이트의 RAM이 “더 큰 모델과 출력을 위한 견고한 기준점”을 제공한다고 제안합니다. Mac 사용자에게는 컴퓨터의 통합 메모리가 주요 병목 현상입니다. 개별 NVIDIA 그래픽 카드를 사용하는 Windows 및 Linux 사용자에게는 GPU 메모리(VRAM)가 가속에 더 중요합니다.

하지만 시작하기 위해 반드시 비싼 하드웨어가 필요한 것은 아닙니다. 파라미터 수가 적은 작은 모델은 훨씬 더 적당한 시스템에서 실행됩니다. 예를 들어, 큐웬 2.5는 여러 크기로 제공되며, 작은 변형은 16기가바이트 RAM을 가진 머신에서도 효과적으로 작동할 수 있습니다. 사린은 “최고의 결과를 얻기 위해 가장 큰 모델을 실행할 필요는 없습니다”라고 강조했습니다. 실질적인 권장 사항은 다음과 같습니다: 워크플로우를 테스트하기 위해 작은 모델로 시작한 다음 필요에 따라 확장하십시오.

참고로 애플의 보급형 맥북 에어(MacBook Air)는 8기가바이트 RAM으로 대부분의 유능한 코딩 모델에 어려움을 겪을 수 있습니다. 그러나 32기가바이트의 맥북 프로(MacBook Pro)는 — 전문 개발자들 사이에서 점점 더 보편화되고 있습니다 — 편안하게 처리합니다. 개인적으로, 초기의 하드웨어 투자가 장벽으로 느껴질 수 있지만, 개발자의 독립성과 자유, 그리고 장기적인 비용 절감 효과를 고려한다면 이는 충분히 감수할 만한 트레이드오프라고 봅니다. 게다가 오픈소스 모델의 최적화가 계속되고 있기 때문에, 하드웨어 요구 사항은 점차 낮아질 가능성이 높습니다.

클로드 코드 vs. 구스, 그리고 AI 코딩 시장의 미래

로컬 LLM과 함께하는 구스는 클로드 코드의 완벽한 대체재는 아닙니다. 개발자들이 이해해야 할 실제적인 트레이드오프가 존재합니다.

  • 모델 품질: 앤트로픽의 주력 모델인 클로드 4.5 오푸스는 소프트웨어 엔지니어링 작업에 있어 여전히 가장 유능한 AI라고 할 수 있습니다. 복잡한 코드베이스를 이해하고, 미묘한 지시를 따르며, 첫 시도에 고품질 코드를 생성하는 데 탁월합니다. 오픈소스 모델은 비약적으로 발전했지만, 특히 가장 어려운 작업에서는 여전히 격차가 존재합니다. 200달러 클로드 코드 플랜으로 전환한 한 개발자는 그 차이를 “내가 ‘이것을 현대적으로 보이게 해줘’라고 말할 때, 오푸스는 내가 무엇을 의미하는지 압니다. 다른 모델들은 2015년경의 부트스트랩을 제공하죠.”라고 직설적으로 표현했습니다.
  • 컨텍스트 윈도우(Context Window): API를 통해 접근할 수 있는 클로드 소네트 4.5는 100만 토큰이라는 방대한 컨텍스트 윈도우를 제공하여, 청킹(chunking)이나 컨텍스트 관리 문제 없이 전체 대규모 코드베이스를 로드할 수 있습니다. 대부분의 로컬 모델은 기본적으로 4,096 또는 8,192 토큰으로 제한되지만, 메모리 사용량 증가 및 처리 속도 저하를 대가로 더 긴 컨텍스트를 위해 구성할 수 있는 경우가 많습니다.
  • 속도: 클로드 코드와 같은 클라우드 기반 서비스는 AI 추론에 최적화된 전용 서버 하드웨어에서 실행됩니다. 소비자 노트북에서 실행되는 로컬 모델은 일반적으로 요청을 더 느리게 처리합니다. 이 차이는 빠른 변경을 하고 AI 피드백을 기다리는 반복적인 워크플로우에서 중요합니다.
  • 도구 성숙도(Tooling Maturity): 클로드 코드는 앤트로픽의 전담 엔지니어링 자원의 혜택을 받습니다. 프롬프트 캐싱(반복적인 컨텍스트의 비용을 최대 90%까지 줄일 수 있음)과 구조화된 출력과 같은 기능은 세련되고 문서화가 잘 되어 있습니다. 구스는 현재까지 102개의 릴리스로 활발하게 개발되고 있지만, 커뮤니티 기여에 의존하며 특정 영역에서는 동등한 정교함이 부족할 수 있습니다.

AI 코딩 도구 시장에서의 구스 위치

구스는 혼잡한 AI 코딩 도구 시장에 진입하지만, 독특한 위치를 차지합니다.

  • 커서(Cursor): 인기 있는 AI 강화 코드 에디터인 커서는 프로 티어에 월 20달러, 울트라 티어에 200달러를 청구하며, 이는 클로드 코드의 맥스 플랜과 유사한 가격입니다. 커서는 울트라 레벨에서 월 약 4,500개의 소네트 4 요청을 제공하는데, 이는 클로드 코드의 시간당 초기화 방식과는 상당히 다른 할당 모델입니다.
  • 클라인(Cline), 루 코드(Roo Code) 및 유사한 오픈소스 프로젝트들은 AI 코딩 지원을 제공하지만, 자율성과 도구 통합 수준이 다릅니다. 대부분은 구스 및 클로드 코드를 정의하는 에이전트형 작업 실행보다는 코드 완성에 중점을 둡니다.
  • 아마존의 코드위스퍼러(CodeWhisperer), 깃허브 코파일럿(GitHub Copilot) 및 주요 클라우드 공급업체의 엔터프라이즈(enterprise) 제품들은 복잡한 조달 프로세스와 전용 예산을 가진 대규모 조직을 대상으로 합니다. 이들은 가볍고 유연한 도구를 찾는 개별 개발자 및 소규모 팀에게는 덜 관련성이 있습니다.

구스는 진정한 자율성, 모델에 구애받지 않는 특성, 로컬 운영, 그리고 무료라는 점을 결합하여 독특한 가치 제안을 만듭니다. 이 도구는 세련미나 모델 품질에서 상용 제품과 경쟁하려 하지 않습니다. 그것은 재정적, 아키텍처적 자유를 놓고 경쟁하는 것입니다.

월 200달러 시대의 종말이 올까?

AI 코딩 도구 시장은 빠르게 진화하고 있습니다. 오픈소스 모델은 독점적인 대안과의 격차를 지속적으로 좁히는 속도로 개선되고 있습니다. 문샷 AI(Moonshot AI)의 키미 K2(Kimi K2)와 z.ai의 GLM 4.5는 이제 클로드 소네트 4 수준에 근접하게 벤치마킹되고 있으며, 이들은 자유롭게 이용 가능합니다. 이러한 추세가 계속된다면, 클로드 코드의 프리미엄 가격을 정당화하는 품질 우위는 약화될 수 있습니다. 앤트로픽은 그때 가서 원시적인 모델 능력보다는 기능, 사용자 경험 및 통합을 놓고 경쟁해야 할 압력을 받게 될 것입니다.

지금 당장, 개발자들은 명확한 선택에 직면합니다. 절대적으로 최고의 모델 품질이 필요하고, 프리미엄 가격을 감당할 수 있으며, 사용 제한을 받아들이는 사람들은 클로드 코드를 선호할 수 있습니다. 비용, 개인 정보 보호, 오프라인 접근성 및 유연성을 우선시하는 사람들에게는 구스라는 진정한 대안이 있습니다. 월 200달러짜리 상용 제품에 필적하는 핵심 기능을 가진 무료 오픈소스 경쟁자가 존재한다는 사실 자체는 놀랍습니다. 이는 오픈소스 AI 인프라의 성숙과 개발자들이 자신의 자율성을 존중하는 도구에 대한 갈망을 모두 반영합니다.

구스는 완벽하지 않습니다. 상용 대안보다 더 많은 기술적 설정이 필요합니다. 모든 개발자가 갖추고 있지 않은 하드웨어 자원에 의존합니다. 모델 옵션은 빠르게 개선되고 있지만, 가장 복잡한 작업에서는 여전히 최고의 독점 제품에 뒤처집니다. 하지만 점점 늘어나는 개발자 커뮤니티에게 이러한 한계는 AI 환경에서 점점 더 드물어지는 ‘진정으로 자신의 것’인 도구를 위한 감수할 만한 트레이드오프입니다.

▶️ 관련 영상 보기


출처

  • 원문 제목: Claude Code costs up to $200 a month. Goose does the same thing for free.
  • 출처: AI | VentureBeat
  • 원문 기사 보러가기
Share this story

Related News