샘 알트만, '인간 중심 AI' 외치지만… 내부자들은 왜 CEO를 불신하는가?
Published Apr 11, 2026
“오픈AI의 문제는 샘 그 자체다.”
이 거침없는 한 문장은 오픈AI의 전 연구 책임자 다리오 아모데이(Dario Amodei)가 샘 알트만 CEO에 대해 내린 평가입니다. 인류의 미래를 책임질 초지능(superintelligence) 시대의 정책 권고안을 발표하며 ‘인간 중심’이라는 거창한 비전을 제시했던 바로 그 날, 샘 알트만이라는 핵심 인물을 둘러싼 깊은 불신이 수면 위로 떠올랐습니다. 어쩌면 인공지능 역사상 가장 중요한 순간 중 하나로 기록될 수 있는 지금, 오픈AI의 겉과 속이 너무나도 다른 그림을 그리고 있다는 사실은 우리에게 많은 질문을 던지고 있습니다.
오픈AI의 장밋빛 비전, 그 이면의 불협화음
오픈AI는 최근 초지능이 인류에게 혜택을 주도록 하기 위한 정책 권고안을 발표했습니다. AI가 “인공지능의 도움을 받는 가장 똑똑한 인간보다도 뛰어난 성능을 발휘하기 시작할 때”에도 “사람들을 최우선으로” 두기 위한 정책을 추진하겠다는 내용이었죠. 회사는 위험에 대해 “명확한 시야”와 투명성을 유지하겠다고 다짐했습니다. 여기에는 AI 시스템이 인간의 통제를 회피하거나 정부가 민주주의를 훼손하기 위해 AI를 사용하는 것과 같은 극단적인 시나리오를 모니터링하는 것도 포함된다고 명시했습니다. 이러한 위험에 대한 적절한 완화 없이는 “사람들이 해를 입을 것”이라고 경고하면서도, 초지능 달성이 “모든 이의 삶의 질을 높이는” 미래를 옹호하기 위해 회사가 신뢰받을 수 있는 방법을 설명했습니다.
구체적으로 오픈AI는 다음과 같은 야심찬 정책 아이디어를 제시했습니다:
- 노동자 보호: AI 시스템이 생산성을 향상하고 직장을 더 안전하게 만드는 방식, 그리고 AI의 유해한 사용에 대한 명확한 한계를 설정하는 방법에 대한 논의에 노동자를 참여시킬 것을 제안했습니다.
- 사회 안전망 강화: 기업들이 인간 노동에 덜 의존하게 됨에 따라 자동화된 노동에 세금을 부과하여 사회 보장, 메디케이드, SNAP, 주택 지원과 같은 핵심 프로그램을 지원할 수 있다고 언급했습니다.
- 유연한 근무 제도: 고용주와 노동조합이 생산량을 유지하면서 급여 손실 없이 32시간/4일 근무 주간 파일럿 프로그램을 운영하도록 인센티브를 제공하는 방안도 포함했습니다.
- 공공의 접근성 및 이익 공유: 모두가 AI에 접근하고 그로부터 이익을 얻을 수 있도록 보장하며, 사회가 인터넷 접근성 보장과 AI의 “공정한 배포”를 달성하지 못했던 과거의 실패를 반복하지 않기를 희망했습니다.
- 연구 및 협력: 이러한 정책 아이디어를 기반으로 하는 연구에 최대 10만 달러의 연구 보조금과 최대 100만 달러의 API 크레딧을 제공하는 파일럿 프로그램을 홍보하기도 했습니다.
이처럼 오픈AI는 미래에 대한 희망적이고 포괄적인 그림을 제시하며 인류의 삶을 향상시키겠다는 포부를 드러냈습니다. 언뜻 보면 인공지능의 밝은 미래를 위한 로드맵처럼 보입니다.
하지만 이와 동시에 뉴요커(The New Yorker)지는 알트만 CEO의 사업 방식에 익숙한 100명 이상의 인물들을 인터뷰하고, 내부 메모를 검토하며, 알트만 본인과 12차례 이상 인터뷰한 대규모 탐사 보도 기사를 발표했습니다. 이 기사는 회사의 비전이 아무리 장밋빛으로 보여도 왜 대중이 알트만 CEO에게 AI의 “미래를 통제”할 권한을 신뢰하기 어려운지에 대한 긴 반박문을 제공합니다. 한 이사회 멤버는 알트만을 “거의 한 사람에게서는 찾아볼 수 없는 두 가지 특성을 가지고 있다. 첫 번째는 사람들을 기쁘게 하고, 모든 상호작용에서 호감을 얻으려는 강한 욕구다. 두 번째는 누군가를 기만함으로써 발생할 수 있는 결과에 대한 거의 사회병적인 무관심이다”라고 요약했습니다. 정말 충격적인 발언이 아닐 수 없습니다.

뉴요커는 “결정적인 증거(smoking gun)“를 찾지는 못했지만, 오픈AI의 전 수석 과학자 일리야 수츠케버(Ilya Sutskever)와 전 연구 책임자 다리오 아모데이의 메시지를 검토했습니다. 이 메시지들에는 “수많은 기만과 조작”이 기록되어 있었습니다. 각각의 사건들은 별개로 넘길 수도 있었지만, 두 사람은 알트만이 첨단 AI를 위한 안전한 환경을 조성하고 있지 않다고 결론 내렸다고 합니다. 여기서 다시 한번 아모데이는 “오픈AI의 문제는 샘 그 자체”라고 단언했습니다.
알트만은 기사에 실린 주장을 반박하거나 특정 사건에 대해 “기억나지 않는다”고 주장했습니다. 그는 또한 자신의 변화하는 서술이 AI의 변화하는 환경 때문이라고 설명했으며, 과거에 갈등을 회피하는 경향이 있었음을 인정했습니다. 하지만 정부가 오픈AI의 모델에 점점 더 의존하고 있고, 회사의 기술이 안전하지 않다는 소송이 제기되는 가운데 오픈AI에 대한 조사가 심화되면서 그의 모순된 모습은 더 이상 무시하기 어렵게 되었습니다.
신뢰의 위기: 전략적 전환인가, 본질적 문제인가?
알트만은 최근 AI 종말 시나리오를 막는 ‘구세주’로서의 입장에서 벗어나, “활기찬 낙관론”으로 “어조”를 바꾸었다고 뉴요커는 보도했습니다. 오픈AI의 정책 권고안 역시 이러한 낙관론을 반영하는 부분이 있습니다. 이러한 권고안에 대해 논의하면서 오픈AI의 최고 글로벌 업무 책임자 크리스 레헤인(Chris Lehane)은 월스트리트저널(The Wall Street Journal)에 회사가 AI에 대한 부정적인 대중의 의견에 대해 긴급하게 우려하고 있다고 확인했습니다.
여기서 제 개인적인 분석을 덧붙이자면, 오픈AI의 이러한 정책 권고안 발표 시점은 매우 전략적이라고 볼 수 있습니다. 회사는 AI 위험으로부터 인류를 구하기 위한 “큰 아이디어”를 홍보하는 동시에, 대중의 우려를 완화하려는 분명한 의도를 가지고 있습니다. 최근 하버드/MIT 여론조사에 따르면 미국인들의 가장 큰 우려는 AI가 삶의 질을 해칠 수 있다는 것이었고, 어린아이 안전 문제, 일자리 대체, 에너지 소비가 많은 데이터 센터에 대한 우려도 커지고 있습니다. 이러한 우려들은 다가오는 중간선거에서 민주당과 공화당의 표심을 흔들 수 있으며, AI 발전을 늦출 수 있는 데이터 센터 건설 유예 조치가 탄력을 받고 있습니다. 즉, 대중과 정치권의 인식이 AI 기술 발전의 방향과 속도에 직접적인 영향을 미 미치는 중요한 시점에 다다른 것입니다.
뉴요커의 보도에 따르면, 알트만은 사적으로 엄격한 AI 안전법에 반대 로비를 펼쳐왔다고 합니다. 이러한 상황에서 그의 회사와 그가 대중에게 AI 비전을 설득하는 것은 매우 중요합니다. 의회의 통제력 상실은 오픈AI가 원치 않는 더 엄격한 AI 안전법으로 이어질 수 있기 때문이죠. 만약 알트만에 대한 신뢰가 없다면, 오픈AI가 단순히 자사의 지배력을 강화하기 위해 대중에게 필요한 말을 하는 것이 아니라는 것을 설득하기는 훨씬 더 어려울 것입니다.
오픈AI는 “모든, 심지어 대부분의 답을 가지고 있지 않다”고 말하며, 자사의 “지능 시대 산업 정책”을 “초지능으로의 전환 기간 동안 사람들을 최우선으로 두기 위한 산업 정책 의제에 대한 초기 아이디어”로 설명했습니다. “상식적인” 규제와 성공에 빠르게 반복적으로 적용할 수 있는 공공-민간 파트너십을 요구하면서, 오픈AI는 모두가 AI에 접근하고 그로부터 이익을 얻을 수 있도록 보장하기 위한 “야심찬” 정책 아이디어를 제시했습니다. 그들의 낙관적인 비전은 사회가 한 번도 달성하지 못한 것, 즉 인터넷 접근성을 보장하고 AI가 미국 전역에 “공정하게 배포”되며, 모든 사람이 이를 사용할 수 있도록 훈련받는 것을 희망한다고 인정했습니다.
솔직히 말해서, 초지능 시대의 도래를 앞두고 인류의 미래를 논하는 거대한 담론 속에서, 그 담론을 이끌어가는 핵심 인물의 개인적인 신뢰 문제가 이렇게까지 부각되는 것은 매우 아이러니합니다. 오픈AI의 정책 권고안이 진정으로 인류를 위한 것인지, 아니면 커지는 대중의 불신과 정치적 압력을 회피하려는 전략적 움직임인지에 대한 판단은 결국 알트만 CEO 개인의 과거 행적과 현재의 태도에 대한 신뢰 여부에 달려 있다고 봅니다. 단순히 기술의 발전만이 아니라, 이를 이끄는 리더십의 도덕적 나침반이 인류 전체의 미래를 결정하는 중대한 요소가 될 수 있음을 시사하는 대목입니다. 앞으로 오픈AI와 샘 알트만이 이 신뢰의 위기를 어떻게 극복해 나갈지, 혹은 극복하지 못할지 지켜보는 것은 AI 시대를 살아가는 우리 모두에게 매우 중요한 관전 포인트가 될 것입니다.
출처
- 원문 제목: “The problem is Sam Altman”: OpenAI insiders don’t trust CEO
- 출처: Artificial Intelligence - Ars Technica
- 원문 기사 보러가기