arrow_back

Article

첩보 기관이 은밀히 활용하는 '위험' AI 모델, 우리는 안심할 수 있을까요?

Published Apr 20, 2026

최첨단 인공지능 기술이 우리 일상에 스며드는 속도는 놀랍습니다. 스마트폰의 개인 비서부터 복잡한 산업 자동화에 이르기까지, AI는 이제 선택이 아닌 필수가 되어가고 있죠. 그런데 만약 여러분의 개인 정보, 나아가 국가 안보를 다루는 최고 수준의 첩보 기관이 민간 기업이 개발하고, 심지어 정부 스스로 ‘위험하다’고 평가한 AI 모델을 은밀히 사용하고 있다면 어떤 생각이 드시나요? 사실 이건 단순한 상상이 아니라, 최근 미국에서 보도된 충격적인 현실입니다. 이 뉴스는 일반 사용자들에게 단순히 먼 나라의 이야기가 아닙니다. 정부가 어떤 AI 기술을 어떻게 통제하고 활용하는지에 대한 근본적인 질문을 던지며, 궁극적으로 우리의 개인 정보 보호국가 안보의 미래에 직접적인 영향을 미칠 수밖에 없기 때문입니다.

역설의 한가운데: “위험”으로 지정된 AI 모델의 비밀스러운 사용

최근 보도에 따르면, 미국 국가안보국(NSA)이 Anthropic이 대중에 공개하지 않고 제한적으로만 접근을 허용한 AI 모델인 Mythos Preview를 사용하고 있다고 합니다. 사실 이 소식은 여러 면에서 상당히 충격적인데요. 불과 몇 주 전, NSA의 상위 기관인 미국 국방부(Pentagon)는 Anthropic을 ‘공급망 위험(supply-chain risk)‘으로 지정했습니다. 그 이유는 Anthropic이 자사의 핵심 AI 모델인 Claude에 대한 국방부 관리들의 무제한적인 접근 요구를 거부했기 때문입니다. 특히 Anthropic은 국방부가 이 모델을 대규모 국내 감시자율 무기 개발에 활용할 가능성에 대해 우려하며 접근을 제한했습니다.

이쯤 되면 의아하지 않으신가요? 정부의 한 부처가 특정 AI 기업을 국가 안보에 잠재적 위험을 줄 수 있는 ‘공급망 위험’으로 지정했는데, 다른 첩보 기관은 그 기업의 가장 강력하고 제한적인 AI 모델을 비밀리에 사용하고 있다니, 솔직히 말해서 상당한 역설이 아닐 수 없습니다. 이는 AI 기술의 통제와 활용 사이에서 정부가 겪는 딜레마를 명확하게 보여줍니다. 정부는 AI의 잠재적 위험을 인지하면서도, 동시에 그 기술이 제공하는 전략적 이점을 포기할 수 없다는 이중적인 태도를 보이고 있는 것이죠. 과연 정부는 민간 AI 기술이 국가 안보에 미칠 수 있는 영향을 진정으로 이해하고 통제할 능력이 있을까요? 저는 이 지점에서 정부의 AI 거버넌스 능력에 대한 심각한 의문이 제기된다고 생각합니다.

Mythos, 그 금단의 기술은 무엇인가?

그렇다면 NSA가 비밀리에 활용하고 있다는 Mythos는 어떤 모델일까요? Anthropic은 이달 초 Mythos를 ‘프론티어 모델(frontier model)‘이자 사이버 보안 작업에 특화된 모델로 발표했습니다. 그러나 동시에 이 모델이 공격적인 사이버 공격을 수행할 수 있는 “너무나도 강력한” 능력을 가졌기 때문에 대중에 공개할 수 없다고 밝혔습니다. 이로 인해 Anthropic은 Mythos에 대한 접근을 약 40개 기관으로 제한했으며, 그중 12곳 정도만 공개적으로 이름을 밝혔습니다.

NSA는 이 공개되지 않은 ‘40개 기관’ 중 하나로 보이며, Mythos를 주로 “악용 가능한 취약점 스캔(scanning environments for exploitable vulnerabilities)” 목적으로 사용하고 있다고 전해집니다. 영국의 AI 보안 연구소(U.K.’s AI Security Institute) 또한 Mythos에 대한 접근 권한을 확인했습니다.

NSA spies are reportedly using Anthropic’s Mythos, despite Pentagon feud

‘취약점 스캔’이라는 말은 언뜻 방어적인 목적으로 들리지만, 첩보 기관의 맥락에서 보면 그 의미는 훨씬 더 복잡해집니다. 시스템의 취약점을 파악하는 능력은 방어에 필수적이지만, 동시에 이를 악용하여 공격을 감행할 수 있는 기반이 될 수도 있기 때문입니다. Anthropic이 Mythos의 공격 능력을 우려하여 공개를 제한한 이유도 바로 여기에 있을 겁니다. 개인적으로는 이 기술의 양면성에 주목해야 한다고 생각합니다. 방어와 공격의 경계가 모호한 사이버 보안 영역에서, 이러한 강력한 AI 모델이 어떤 목적으로 어떻게 사용될지는 전적으로 사용자, 즉 NSA의 윤리적 판단과 통제에 달려있다는 뜻이 되죠. 과연 국가 기관은 이러한 초강력 AI 모델을 완전히 윤리적이고 방어적인 목적으로만 사용할 수 있을까요? 사실 이건 AI 개발 기업이 감당하기에는 너무나도 무거운 책임일 수 있습니다.

AI 기업과 정부, 불편한 동거의 미래

이 모든 상황 속에서 Anthropic과 트럼프 행정부 간의 관계가 해빙 조짐을 보이고 있다는 점도 흥미롭습니다. 최근 Anthropic의 최고 경영자인 다리오 아모데이(Dario Amodei)는 백악관 비서실장과 재무장관을 만났고, 백악관은 이 회동이 “생산적이었다”고 평가했습니다. 이는 국방부와의 갈등과는 별개로, 정부 고위층과 AI 기업 간의 관계가 새로운 국면을 맞이하고 있음을 시사합니다.

이러한 만남은 Anthropic이 기존의 윤리적 입장에서 다소 타협할 여지가 생겼거나, 혹은 정부가 AI 기술의 중요성을 인지하고 민간 기업과의 협력을 모색하려는 의지를 보인 결과일 수 있습니다. AI 기술이 국가 안보의 핵심 역량으로 부상하면서, 정부는 민간 기업의 혁신적인 기술을 외면할 수 없는 현실에 직면했습니다. 동시에 민간 기업 또한 정부의 막대한 자원과 영향력을 무시할 수 없는 상황입니다.

하지만 이 ‘불편한 동거’가 과연 윤리적 AI 개발의 길을 열어줄지는 미지수입니다. 정부 기관이 첨단 AI 모델을 ‘비밀리에’ 사용하고, 그 목적과 방식에 대한 투명성이 결여되어 있다면, 이는 결국 국민의 불신을 초래하고 AI 기술에 대한 전반적인 우려를 증폭시킬 것입니다. Anthropic은 이번 보도에 대해 언급을 거부했고, NSA 역시 코멘트 요청에 응하지 않았습니다. 이러한 침묵은 더욱 의혹을 키울 뿐입니다.

결론적으로, NSA의 Mythos 사용 보도는 우리에게 중요한 질문들을 던집니다. AI의 윤리적 사용, 국가 안보의 우선순위, 민간 기업의 책임, 그리고 국민의 알 권리가 서로 충돌할 때, 우리는 어떤 답을 찾아야 할까요? AI 시대의 복잡한 딜레마 속에서, 투명하고 책임감 있는 거버넌스 모델을 구축하는 것이 그 어느 때보다 중요해 보입니다.


출처

  • 원문 제목: NSA spies are reportedly using Anthropic’s Mythos, despite Pentagon feud
  • 출처: AI News & Artificial Intelligence | TechCrunch
  • 원문 기사 보러가기
Share this story

Related News