AI 벤치마크 점수는 모두에게 착시일 뿐일까? 당신이 놓치고 있는 AI의 진짜 함정
Published Mar 31, 2026
최근 몇 년간 우리는 인공지능 기술의 눈부신 발전에 놀라움을 금치 못했습니다. 체스를 넘어 복잡한 수학 문제 풀이, 심지어 코딩이나 에세이 작성에 이르기까지, AI 모델은 인간 전문가의 역량을 뛰어넘는 듯한 인상적인 성과를 자랑하며 헤드라인을 장식하곤 합니다. 이런 뉴스를 접할 때마다 ‘드디어 AI가 우리의 일상을 혁신할 때가 왔다’고 기대하는 일반 사용자나, ‘우리 회사도 빨리 AI를 도입해야 한다’고 서두르는 기업 관계자분들이 많을 것입니다. 하지만 과연 이러한 벤치마크 점수들이 AI의 실제 가치를 정확히 반영하고 있을까요? MIT 테크놀로지 리뷰의 최신 기사는 이 질문에 대해 심도 깊은 성찰을 요구합니다. 솔직히 말해서, 현재 우리가 AI를 평가하는 방식 자체가 근본적으로 잘못되어 있을 수 있다는 강력한 경고 메시지입니다.
우리가 흔히 접하는 AI 벤치마크는 대부분 ‘AI vs. 인간’이라는 대결 구도에 초점을 맞춥니다. 고립된 특정 문제에 대해 AI가 얼마나 정확하고 빠르게 정답을 찾아내는지를 측정하는 방식이죠. 이러한 접근 방식은 비교하기 쉽고, 표준화하기 용이하며, 명확한 순위를 매길 수 있어 매력적으로 보입니다. 높은 점수는 곧바로 ‘뛰어난 AI’라는 인식을 심어주고, 많은 조직이 이 점수만을 맹신하며 막대한 예산과 자원을 들여 AI 솔루션을 도입하게 만듭니다. 하지만 현실은 벤치마크가 약속했던 장밋빛 미래와는 사뭇 다르게 전개됩니다. AI가 실세계에서 사용되는 방식은 벤치마크에서 평가되는 방식과 거의 일치하지 않기 때문입니다.
AI 벤치마크, 왜 문제인가? ‘인간 vs AI’의 함정
AI 벤치마크가 가진 핵심적인 문제는 바로 **‘맥락의 부재’**입니다. 체스 게임처럼 명확한 규칙과 정답이 있는 고립된 환경에서는 AI가 압도적인 성능을 보일 수 있습니다. 하지만 실제 업무 환경은 그 어떤 벤치마크도 담아낼 수 없는 복잡성과 역동성으로 가득합니다. AI는 홀로 작동하는 것이 아니라, 대개 여러 명의 사람들과 상호작용하며, 조직의 복잡한 워크플로우 속에서 다양한 변수와 예측 불가능한 상황에 직면합니다. 그 성능은 단 한 번의 테스트가 아닌, 장기간의 사용을 통해 비로소 드러나는 것이죠.
이러한 불일치는 심각한 오해와 부작용을 낳습니다. 우리는 AI의 실제 역량을 잘못 이해하고, 시스템적인 위험을 간과하며, 궁극적으로 AI가 가져올 경제적, 사회적 파급 효과를 오판하게 됩니다. 이 부분에서 주목할 점은, 현재의 벤치마크가 ‘인간을 뛰어넘는 AI’라는 서사를 강조하면서 AI가 인간과 협력하는 방식보다는 AI가 인간을 대체하는 방식에 더 집중하게 만들었다는 점입니다. 이는 AI의 본질적인 가치를 왜곡하고, 실제 현장에서의 통합을 어렵게 만드는 결과를 초래합니다. 개인적으로는, 이러한 ‘경쟁적 구도’의 벤치마크가 AI 기술이 진정으로 인류에게 기여할 수 있는 광범위한 가능성을 오히려 제약하고 있다고 생각합니다.
가장 대표적인 예시는 의료 분야에서 찾아볼 수 있습니다. 미 FDA 승인을 받은 수많은 AI 모델들은 전문가 영상의학과 의사보다 의료 영상을 더 빠르고 정확하게 판독할 수 있다는 인상적인 벤치마크 점수를 가지고 있습니다. 하지만 실제 병원에 도입되었을 때 상황은 달라집니다. 필자의 연구에 따르면, 런던 교외에서 캘리포니아 중심부에 이르는 병원들에서 의료진들은 높은 점수를 받은 영상의학 AI 애플리케이션을 사용하면서 오히려 추가적인 시간을 소요했습니다. AI의 출력물을 병원 고유의 보고 기준과 국가별 규제 요건에 맞춰 해석해야 했기 때문이죠. 진공 상태에서 생산성 향상 도구로 보였던 AI가 실제로는 업무 지연을 유발한 것입니다.
이는 의료 의사결정이 단순히 한 명의 의사가 정답을 찾는 과정이 아니기 때문입니다. 영상의학과, 종양학과, 물리학자, 간호사 등 다양한 분야의 전문가들이 협력하여 환자를 검토하고, 치료 계획은 새로운 정보가 나올 때마다 며칠 또는 몇 주에 걸쳐 진화합니다. 전문적인 기준, 환자의 선호도, 장기적인 환자 건강이라는 공동 목표 사이에서 건설적인 논의와 타협을 통해 결정이 내려지는 것이죠. 이러한 복잡하고 협력적인 임상 치료 과정에 직면했을 때, 아무리 높은 점수를 받은 AI 모델이라도 약속된 성능을 발휘하지 못하는 것은 당연한 일일 수밖에 없습니다.

실망스러운 AI, ‘AI 무덤’으로 가는 길
이러한 벤치마크와 현실 간의 괴리는 단지 의료 분야에 국한된 문제가 아닙니다. 필자의 연구에 따르면, 다른 여러 분야에서도 표준화된 테스트에서 뛰어난 성능을 보인 AI 모델들이 실제 업무 환경에 적용되었을 때 약속된 효과를 내지 못하는 유사한 패턴이 나타납니다.
높은 벤치마크 점수가 실제 성능으로 이어지지 않을 때, 아무리 훌륭한 AI라도 결국 **‘AI 무덤(AI graveyard)‘**으로 버려지고 맙니다. 이는 상당한 비용 손실을 초래합니다. AI 도입을 위해 투자된 시간, 노력, 돈은 모두 낭비로 이어지는 것이죠. 그리고 이런 경험이 반복될수록 조직의 AI에 대한 신뢰는 점차 침식되고, 의료와 같은 중요한 분야에서는 대중의 기술에 대한 광범위한 신뢰마저 저해될 수 있습니다.
현재의 벤치마크가 AI 모델의 실제 사용 준비 상태에 대해 부분적이고 잠재적으로 오해를 불러일으킬 수 있는 신호만을 제공하면서, 규제 기관에도 ‘규제 사각지대’를 만듭니다. 현실을 반영하지 못하는 지표에 의해 감독이 이루어지는 셈이니까요. 또한, 조직과 정부는 제한된 자원과 지원만으로 민감한 실제 환경에서 AI를 테스트하는 위험을 감수해야 하는 상황에 놓이게 됩니다. 솔직히 말해서, 많은 기업이 AI 도입의 환상에 사로잡혀 벤치마크 점수만을 맹신하는 경향이 있습니다. 하지만 실제 비즈니스 환경은 실험실이 아닙니다. 이런 시행착오가 반복되면서 AI 회의론이 퍼지는 것은 불가피하며, 이는 장기적으로 기술 발전의 걸림돌이 될 수 있다고 생각합니다.
‘HAIC 벤치마크’: 인간 중심의 AI 평가, 새로운 기준을 제시하다
벤치마크와 실제 성능 간의 격차를 해소하기 위해서는, AI 모델이 실제로 사용될 환경에 주목해야 합니다. 핵심 질문은 이것입니다. AI가 인간 팀 내에서 생산적인 참여자로 기능할 수 있는가? 그리고 지속적이고 집단적인 가치를 창출할 수 있는가?
이러한 문제의식에 기반하여, 필자는 **HAIC 벤치마크(Human–AI, Context-Specific Evaluation)**라는 새로운 접근 방식을 제안합니다. 이는 기존 벤치마킹을 네 가지 방식으로 재구성하는 것입니다.
- 분석 단위의 변화: AI의 개별적이고 단일 작업 성능에서 벗어나, 팀 및 워크플로우 성능을 분석 단위로 삼습니다. AI가 전체 시스템 내에서 어떻게 협력하고 기여하는지를 봅니다.
- 시간 지평의 확장: 일회성 정답/오답 테스트가 아닌, 장기적인 영향에 초점을 맞춥니다. AI 도입 후 시간 경과에 따른 실제적인 변화를 추적합니다.
- 측정 지표의 확대: 단순히 정확성과 속도를 넘어, 조직 성과, 협업 품질, 오류 감지 가능성 등 더 광범위한 성과 지표를 포함합니다. AI가 인간의 오류를 줄이거나 협업을 개선하는 데 얼마나 기여하는지를 측정합니다.
- 시스템적 관점: 고립된 결과물에만 집중하지 않고, AI의 활용이 가져오는 상류(upstream) 및 하류(downstream) 영향을 포함한 전체 시스템 효과를 고려합니다. AI가 전체 프로세스에 미치는 영향을 종합적으로 평가합니다.
HAIC 벤치마크 접근 방식이 적용되기 시작한 조직들에서는 가장 먼저 ‘분석 단위의 변화’가 이루어지고 있습니다. AI가 단순한 도구가 아니라, 인간 팀의 능동적인 구성원으로서 어떻게 협업하고 가치를 창출하는지에 대한 근본적인 질문을 던지는 것이죠. 이는 AI 개발자들에게도 중요한 시사점을 제공합니다. 이제는 단순히 기술적 우수성만을 쫓는 것이 아니라, AI가 실제 인간의 삶과 업무에 어떻게 자연스럽게 녹아들고 시너지를 낼 수 있을지에 대한 깊은 이해가 필요하다는 점을 말입니다.
결론적으로, AI의 진정한 가치는 고립된 환경에서의 뛰어난 점수가 아닌, 복잡하고 역동적인 인간 시스템 내에서 인간의 역량을 얼마나 효과적으로 증폭시키고 지속적인 가치를 창출하는지에 달려 있습니다. 개발자, 조직, 그리고 규제 기관 모두가 이러한 새로운 관점으로 벤치마크를 재고하는 것이 AI의 책임감 있고 효과적인 통합을 위한 필수적인 단계입니다. 이제 우리는 단순히 숫자를 넘어, 인간과 기계 간의 복잡한 춤을 이해해야 할 때입니다.
출처
- 원문 제목: AI benchmarks are broken. Here’s what we need instead.
- 출처: MIT Technology Review
- 원문 기사 보러가기