arrow_back

Article

AI의 노동시장 지형도: 과연 우리는 80%의 일자리를 잃을 준비가 되었을까?

Published Apr 2, 2026

최근 인공지능이 우리 일상과 산업 전반에 미치는 영향에 대한 논의가 뜨겁습니다. 특히 AI가 노동시장을 어떻게 변화시킬지에 대한 예측은 많은 이들의 관심사이자 동시에 불안감을 자아내는 주제입니다. 다양한 연구와 보고서들이 쏟아져 나오는 가운데, 특정 그래픽 하나가 온라인에서 유독 많이 공유되며 충격과 논쟁을 불러일으켰죠. 바로 앤스로픽(Anthropic) 보고서에 등장하는, LLM(대규모 언어 모델)이 직업에 미치는 영향을 비교한 그래프입니다.

겉으로 보이는 충격적인 숫자들: 80%의 환상?

이 그래프는 22가지 직업군에서 LLM의 현재 “관찰된 노출(observed exposure)” (빨간색)과 “이론적 역량(theoretical capability)” (파란색)을 비교합니다. 여기서 특히 우리의 눈길을 사로잡는 것은 바로 파란색 영역, 즉 LLM의 “이론적 역량”입니다. 이 그림은 언뜻 보기에 LLM 기반 시스템이 예술 & 미디어, 사무 & 행정, 법률, 비즈니스 & 재무, 심지어 경영에 이르는 광범위한 직업군에서 **개별 “직무 작업”의 최소 80%**를 수행할 수 있다는 것을 암시합니다. 정말 놀랍지 않나요? 이 그래프만 보면, AI가 이론적으로는 거의 모든 종류의 일자리를 대체할 수 있는 것처럼 보입니다. 솔직히 말해서, 이런 수치는 대중에게 상당한 충격을 주고 AI의 미래 역할에 대한 막연한 두려움을 키울 수 있습니다. 그러나 이 “이론적 역량” 수치의 근간을 깊이 파고들면, AI의 미래 직업적 영향에 대한 훨씬 덜 냉혹한 그림을 발견하게 됩니다. 이 파란색 영역은 사실 AI가 인간 생산성을 향상시킬 수 있는 지점에 대한 다소 오래되고 극도로 추측적인 교육받은 추정치를 나타내며, 반드시 AI가 인간의 일을 완전히 대체할 것이라는 의미는 아니라는 점이 중요합니다.

그 숫자의 진짜 원천을 파헤치다: 2023년의 추측 게임

앤스로픽이 인용한 LLM의 “이론적 역량” 기준은, 사실 자사 모델의 실제 테스트나 시간 경과에 따른 성능 향상에 대한 정량적 예측에 기반한 것이 아닙니다. 대신 앤스로픽은 OpenAI, OpenResearch, 펜실베이니아 대학교 연구원들이 공동 저술한 2023년 8월 보고서, “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models”를 인용했습니다.

이 연구의 방식은 이렇습니다. 연구원들은 ONET의 상세 작업 활동 보고서(ONET’s Detailed Work Activity reports)를 바탕으로 여러 직업의 개별 업무를 매우 세분화했습니다. 그리고 당시 **“가장 강력한 OpenAI 대규모 언어 모델”**이 개별 작업에 소요되는 시간을 “동등한 품질로” 최소 50% 단축할 수 있는지 판단하기 위해 인간 주석(human annotation)과 GPT-4 기반 라벨링을 혼합하여 사용했습니다. 만약 그렇지 않다면, **“예상되는 LLM 기반 소프트웨어(anticipated LLM-powered software)“**가 미래에 유사한 시간 절약을 달성할 수 있는지 역시 판단했습니다.

여기서 결정적인 문제가 드러납니다. 라벨링에 참여한 인간들은 실제 해당 직무를 수행하는 사람들이 아니었습니다. 심지어 해당 직무에 익숙한 사람들도 아니었습니다. 대신, 그들은 2023년 당시 AI 기술의 최첨단에 익숙한 사람들이었으며, LLM과 미래의 LLM 기반 소프트웨어가 어디에 가장 유용할지에 대해 광범위한 추측을 하도록 요청받았습니다.

How did Anthropic measure AI's 'theoretical capabilities' in the job market?

연구원들 스스로도 이러한 방식의 한계를 명확히 인정했습니다. 인간 주석가들이 **“평가 대상인 특정 직업에 대해 대부분 알지 못했다”**는 점을 들어, 라벨링의 **“주관성”**이 **“우리 접근 방식의 근본적인 한계”**를 이룬다고 밝혔습니다. 또한, 라벨링 결과는 연구원들이 **“작업과 직업을 취합하는 불분명한 논리”**와 **“일부 명백한 라벨의 불일치”**를 발견했다고 합니다. 객관적으로 보이는 AI의 직업적 영향 측정치를 만드는 데 있어, 사실 이런 중대한 주의사항들은 정말 큰 문제라고 할 수 있습니다.

연구원들이 사용한 세부적인 루브릭(rubric)을 살펴보면, 당시 LLM이 가장 “직접적인 노출”을 가질 수 있는 직업에 대해 어떤 종류의 가정을 했는지 알 수 있습니다. 루브릭은 LLM이 수행할 수 있는 작업 유형에 대한 많은 유용한 예를 제공합니다. 여기에는 예를 들어, 문서 초안 작성, 정보 요약, 특정 질문에 대한 정보 검색, 브레인스토밍, 코드 생성 및 디버깅 등이 포함됩니다.

전반적으로, 이는 2023년 당시 LLM이 가장 잘 수행했던 작업 유형 목록으로서는 나쁘지 않습니다. 하지만 LLM이 이러한 작업을 어느 정도 수행할 수 있다고 해서 반드시 **“동등한 품질로 작업을 완료하는 데 걸리는 시간을 최소 절반으로 줄일 수 있다”**는 의미는 아닙니다.

현실과 환상 사이의 간극: 과대평가된 잠재력

예를 들어, 2025년 연구에 따르면 AI를 사용하는 오픈 소스 코더는 프롬프트 작성 및 생성된 코드 검토에 소요된 시간을 고려했을 때 AI를 사용하지 않는 코더보다 19% 느렸다고 합니다. LLM의 잘 알려진 환각(hallucination) 현상아첨(sycophancy) 경향을 고려하면, 그 결과물이 인간의 결과물과 **“동등한 품질”**일 것이라고 가정하기 어렵습니다. 개인적으로는 이 부분에서 보고서의 가장 큰 약점이 드러난다고 생각합니다. 현실 세계의 복잡한 직무 환경에서는 단순히 시간 단축을 넘어, 정확성, 신뢰성, 그리고 윤리적 고려사항이 필수적이기 때문입니다. 이러한 요소들이 배제된 ‘이론적 역량’은 그저 반쪽짜리 예측에 불과하다고 생각합니다.

2023년 당시 LLM의 직무 관련 역량을 이렇게 관대하게 해석했음에도 불구하고, 연구원들은 전체 직무 관련 작업의 약 15%만이 LLM에 의해 최소 50% 더 효율적으로 만들어질 수 있다고 추정했습니다. 전체 직업 중 약 **2.3%만이 50% 이상의 O*NET 작업이 LLM에 “노출”**되었다고 합니다.

이야기 초반의 “더 무서운 숫자”들, 즉 80% 이상의 이론적 역량에 도달하기 위해, 연구원들은 **“예상되는 LLM 기반 소프트웨어”**가 다양한 직업에 미칠 영향을 예측하기 시작해야만 했습니다. 이 말인즉슨, 현재의 기술이 아닌, 아직 존재하지 않는 미래의 기술에 대한 추측이 대부분을 차지한다는 뜻입니다.

2023년 AI 하이프 속에서 탄생한 보고서의 그림자

잠시 2023년 8월, OpenAI의 GPT-4 모델이 출시된 직후의 AI 산업 상황을 떠올려봅시다. 그때는 AI에 대한 과도한 기대와 과장된 추측이 최고조에 달했던 시점일 수 있습니다. 당시 일론 머스크와 다른 이들은 AI 개발을 6개월간 중단해야 한다며 “우리 문명의 통제력을 잃을 위험”을 경고했고, 엘리에저 유드코프스키는 초인적인 AI가 지구상의 모든 생명을 위협한다면 “악성 데이터센터를 공습으로 파괴할 의지가 있어야 한다”고 경고했습니다. 제프리 힌튼은 AI가 “사람보다 실제로 똑똑해질 수 있고” “통제 불가능해질 수 있다”는 우려를 표명하기 위해 구글을 그만두었습니다. 또한, AI 환각이 업무에 미치는 영향에 대한 고명한 사례들이 막 대중의 주목을 받기 시작했습니다.

바로 이러한 환경 속에서 AI 전문가들은 LLM 기반 소프트웨어의 미래 직업 변화 역량을 예측하도록 요청받았습니다. 개인적으로는 이러한 당시의 과열된 분위기가 전문가들의 예측에 긍정적인 편향을 주었을 가능성이 매우 높다고 봅니다. 압도적인 기술적 진보에 대한 낙관론과 동시에, 윤리적/사회적 파장에 대한 경고가 뒤섞인 혼란스러운 시기였기 때문입니다. 이러한 배경을 이해하면, 보고서에 담긴 비현실적인 추정치들이 단순히 기술적 분석의 결과가 아니라, 당시 시대정신(zeitgeist)의 반영이었을 수도 있다는 생각이 듭니다.

더욱이 연구원들은 이러한 효과가 미래 소프트웨어에서 언제 나타날지에 대한 자체적인 기한조차 설정하지 않았습니다. 연구원들은 “우리는 그러한 LLM의 개발 또는 채택 일정에 대해 예측하지 않는다”고 명시했는데, 이는 본질적으로 무기한의 예측 지평을 만들어 이러한 종류의 예측이 가지는 예측력을 제한합니다. 기한이 없는 예측은 사실상 어떤 시점에도 ‘틀렸다’고 단정하기 어렵기 때문에, 예측이라기보다는 희망 사항이나 상상에 가깝다고 볼 수 있습니다.

결론: 냉철한 시각으로 AI의 미래를 바라볼 때

앤스로픽 보고서의 “이론적 역량” 그래프가 제시하는 AI의 노동시장 미래는 분명 시사하는 바가 큽니다. 그러나 그 바탕이 된 연구의 방법론과 맥락을 깊이 이해할 때, 우리는 훨씬 더 균형 잡힌 시각을 가질 수 있습니다. 겉으로 보이는 충격적인 숫자들 뒤에는 주관적인 추측, 비전문가의 판단, 그리고 불분명한 미래에 대한 예측이 숨어있다는 것을 잊어서는 안 됩니다.

AI의 발전은 현실이며, 노동시장에 중대한 변화를 가져올 것은 분명합니다. 하지만 우리는 무분별한 공포나 과도한 기대보다는, 비판적 사고와 데이터 기반의 분석으로 그 영향을 이해하려 노력해야 합니다. 앞으로 AI 기술이 실제로 어떤 직무를 어떻게 변화시키고, 인간의 역할은 무엇이 될 것인지에 대한 더 엄격하고 실증적인 연구가 절실히 필요합니다. AI의 미래를 논할 때는 언제나 “이론적 역량”과 “현실적 적용” 사이의 간극을 인지하고 냉철한 시각을 유지하는 것이 중요합니다.


출처

  • 원문 제목: How did Anthropic measure AI’s “theoretical capabilities” in the job market?
  • 출처: Artificial Intelligence - Ars Technica
  • 원문 기사 보러가기
Share this story

Related News