arrow_back

Article

경계를 허무는 AI, 앤트로픽의 '클로드 미토스 프리뷰'를 숨긴 이유

Published Apr 12, 2026

“지난 몇 주 동안 내가 발견한 버그는 평생 발견한 버그를 모두 합친 것보다 많습니다.” 앤트로픽(Anthropic) 연구팀의 니콜라스 칼리니(Nicholas Carlini)는 이 모델이 세 개, 네 개, 때로는 다섯 개의 취약점을 연쇄적으로 연결해 매우 정교한 익스플로잇(Exploit)을 생성할 수 있다고 설명하며 이처럼 놀라운 소감을 밝혔습니다. 이 한마디는 우리가 마주한 AI 기술의 현주소, 그리고 그 잠재력이 얼마나 강력한지 적나라하게 보여줍니다.

최근 AI/기술 업계에 조용한 파문이 일고 있습니다. 챗GPT와 같은 생성형 AI의 경이로운 능력에 익숙해진 우리에게, 앤트로픽이 내놓은 새로운 AI 모델 ‘클로드 미토스 프리뷰(Claude Mythos Preview)’의 소식은 충격적이면서도, 한편으로는 숙연한 감정마저 불러일으킵니다. 이 모델은 현재까지 개발된 AI 중 가장 뛰어난 능력을 지녔다고 평가받지만, 앤트로픽은 역설적으로 이 강력한 모델을 일반에 공개하지 않기로 결정했습니다. 대신, ‘프로젝트 글래스윙(Project Glasswing)’이라는 이니셔티브를 통해 인터넷의 핵심 인프라를 책임지는 전 세계 유수의 기관들에 이 모델을 조용히 건네주었죠. 솔직히 말해서, 이런 움직임은 단순한 제품 출시를 넘어, AI 시대의 윤리와 보안, 그리고 거버넌스에 대한 깊은 고민을 담고 있습니다.

어둠 속에서 빛나는 AI의 이면: 클로드 미토스 프리뷰의 능력

클로드 미토스 프리뷰는 애초에 사이버 보안 작업을 위해 특별히 훈련된 모델이 아니었다는 점이 가장 놀랍습니다. 앤트로픽은 이 모델의 능력이 “코드, 추론, 자율성의 전반적인 개선에 따른 부수적인 결과로 나타났다”고 밝혔습니다. 즉, 범용 AI 모델의 성능 향상이 역설적으로 사이버 보안 분야에서 전례 없는 능력을 발휘하게 된 것이죠. 수많은 운영체제와 웹 브라우저에서 수천 건의 AI 사이버 보안 취약점을 발견했으며, 특히 기존 보안 벤치마크를 거의 포화시킬 정도로 발전했다고 합니다. 이로 인해 앤트로픽은 모델의 초점을 ‘새로운 실제 과제’, 즉 소프트웨어 개발자에게도 이전에 알려지지 않았던 제로데이(Zero-day) 취약점으로 옮겨야 했습니다.

발견된 사례들을 보면 그 능력이 얼마나 막강한지 실감할 수 있습니다.

  • OpenBSD의 27년 묵은 버그: 강력한 보안 자세로 유명한 운영체제 OpenBSD에서 무려 27년 동안 잠들어 있던 버그를 찾아냈습니다. 이는 전문가들도 쉽게 발견하기 힘든 난해한 취약점이었을 것입니다.
  • FreeBSD의 17년 된 원격 코드 실행 취약점: 또 다른 사례에서는 FreeBSD에서 17년 동안 존재했던 원격 코드 실행 취약점(CVE-2026-4747)을 모델이 완전히 자율적으로 식별하고 악용했습니다. 믿기 어려운 사실은, 초기 버그 발견 프롬프트 이후에는 어떤 인간의 개입도 없이, 인터넷상의 비인증 사용자가 NFS를 실행하는 서버의 완전한 제어권을 획득할 수 있었다는 점입니다. 이 정도라면 AI가 단순한 도구를 넘어, 독자적인 해커의 역할을 수행하는 수준에 이르렀다고 봐야 할 것 같습니다.

이 부분에서 주목할 점은, “취약점 패치에 능숙할수록 이를 악용하는 데도 능숙하다”는 앤트로픽의 발언입니다. 이 말은 AI가 양날의 검이라는 진부한 비유를 현실로 만드는 섬뜩한 경고로 들립니다. 실제로 앤트로픽은 이전에 중국 정부 지원을 받는 그룹이 AI 에이전트를 사용해 약 30개의 글로벌 대상을 자율적으로 침투한, AI에 의해 주로 실행된 사이버 공격의 첫 번째 사례를 공개하기도 했습니다. AI가 전술적 작전의 대부분을 독립적으로 처리했다니, 정말 놀랍고도 무서운 일입니다.

Anthropic keeps new AI model private after it finds thousands of external vulnerabilities

프로젝트 글래스윙: 통제된 배포가 새로운 표준이 될까?

앤트로픽이 클로드 미토스 프리뷰를 일반에 공개하지 않기로 한 결정은 이런 우려에서 비롯됩니다. 앤트로픽의 프론티어 레드팀 사이버 리드인 뉴턴 쳉(Newton Cheng)은 “사이버 보안 능력 때문에 클로드 미토스 프리뷰를 일반에 공개할 계획은 없다”고 단호하게 말했습니다. 그는 “AI 발전 속도를 고려할 때, 이러한 능력이 안전하게 배포할 의지가 없는 주체들 너머로 확산되는 데는 그리 오랜 시간이 걸리지 않을 것”이며, “경제, 공공 안전, 국가 안보에 미칠 파급 효과는 심각할 수 있다”고 경고했습니다. 사실 이건 매우 현실적인 우려입니다. AI의 악용 가능성은 늘 논의되어 왔지만, 이처럼 구체적인 위협 앞에서 기업이 취할 수 있는 가장 책임감 있는 자세 중 하나가 아닐까요?

프로젝트 글래스윙의 초기 파트너로는 아마존 웹 서비스(AWS), 애플(Apple), 브로드컴(Broadcom), 시스코(Cisco), 크라우드스트라이크(CrowdStrike), 구글(Google), JP모건체이스(JPMorganChase), 리눅스 재단(Linux Foundation), 마이크로소프트(Microsoft), 엔비디아(Nvidia), 팔로알토 네트웍스(Palo Alto Networks) 등 굴지의 기술 및 금융 기업들이 이름을 올렸습니다. 이 핵심 그룹 외에도, 앤트로픽은 중요한 소프트웨어 인프라를 구축하거나 유지 관리하는 40개 이상의 추가 기관에 접근 권한을 확대했습니다. 앤트로픽은 이 노력에 클로드 미토스 프리뷰 사용 크레딧으로 최대 1억 달러를 지원하고, 오픈소스 보안 기관에 400만 달러를 직접 기부하겠다고 약속했습니다. 엄청난 규모의 투자입니다.

오픈소스 보안에 대한 앤트로픽의 시선

특히 이번 이니셔티브에서 인상 깊었던 점은 오픈소스 소프트웨어에 대한 앤트로픽의 각별한 관심입니다. 리눅스 재단의 짐 젬린(Jim Zemlin) CEO는 “과거에는 보안 전문 지식이 대규모 보안 팀을 갖춘 조직에만 허용되는 사치였다. 세계 핵심 인프라의 많은 부분을 뒷받침하는 오픈소스 유지 관리자들은 역사적으로 보안 문제를 스스로 해결해야 했다”고 지적했습니다. 그의 말처럼, 오픈소스 생태계는 혁신의 원동력이지만, 보안이라는 측면에서는 늘 자원 부족에 시달려 왔습니다.

앤트로픽은 이 문제 해결을 위해 리눅스 재단을 통해 알파-오메가(Alpha-Omega)와 오픈SSF(OpenSSF)에 250만 달러, 아파치 소프트웨어 재단(Apache Software Foundation)에 150만 달러를 기부했습니다. 이를 통해 핵심 오픈소스 코드베이스의 유지 관리자들이 이전에는 상상하기 어려웠던 규모의 AI 사이버 보안 취약점 스캐닝에 접근할 수 있게 된 것이죠. 개인적으로는 이 부분이 단순히 특정 기업의 이익을 넘어, 인터넷 생태계 전반의 건전성을 높이는 데 기여할 수 있는 중요한 발걸음이라고 생각합니다. AI 기술이 인류에게 위협이 될 수 있다면, 가장 먼저 인류의 안전을 지키는 데 활용되어야 한다는 원칙을 보여주는 사례라고 할 수 있습니다.

AI 군비 경쟁 속 ‘통제된 배포’의 의미

앤트로픽의 궁극적인 목표는 새로운 안전장치가 마련될 때만 미토스급 모델을 대규모로 배포하는 것이라고 합니다. 그들은 곧 출시될 클로드 오푸스(Claude Opus) 모델에 새로운 안전장치를 먼저 적용하여, 미토스 프리뷰만큼의 위험을 초래하지 않는 모델로 정교하게 다듬어 나갈 계획입니다.

이러한 움직임은 이미 경쟁 구도에도 변화를 가져오고 있습니다. 오픈AI(OpenAI)가 지난 2월 GPT-5.3-코덱스(Codex)를 출시했을 때, 이 모델을 자사의 ‘준비 프레임워크(Preparedness Framework)‘에 따라 사이버 보안 작업에서 고성능으로 분류한 첫 번째 모델이라고 칭했습니다. 앤트로픽의 글래스윙 프로젝트는 이러한 최첨단 연구소들이 이 정도 능력 수준의 모델에 대해서는 ‘개방형 출시(open release)‘가 아닌 ‘통제된 배포(controlled deployment)‘를 새로운 표준으로 보고 있음을 시사합니다. 사실 이건 매우 중요한 변화입니다. 과거에는 신기술이 개발되면 빠르게 시장에 내놓고 피드백을 통해 개선하는 방식이 일반적이었죠. 하지만 AI의 파괴적인 잠재력을 고려할 때, 무조건적인 개방은 예상치 못한 재앙을 초래할 수 있습니다.

물론, 이러한 능력이 더욱 확산될 때 이 ‘통제된 배포’ 표준이 유지될지는 미지수입니다. 한두 개의 이니셔티브로 답할 수 없는 열린 질문이죠. 하지만 앤트로픽의 이번 결정은 단순히 하나의 기업이 강력한 AI 모델을 잠시 숨긴 것에 그치지 않습니다. 인류 문명의 근간을 흔들 수 있는 기술 앞에서, 개발 주체가 어떤 윤리적 책임과 사회적 의무를 다해야 하는지에 대한 선구적인 질문을 던지고 있는 것입니다. AI의 발전은 피할 수 없는 흐름이지만, 그 방향과 속도를 어떻게 제어하고 안전망을 구축할지는 우리 모두의 지혜에 달린 숙제가 될 것입니다.


출처

  • 원문 제목: Anthropic keeps new AI model private after it finds thousands of external vulnerabilities
  • 출처: AI News
  • 원문 기사 보러가기
Share this story

Related News