마이크로소프트, 아마존까지 뛰어든 AI 헬스케어, '독립 검증' 없인 위험하다?
Published Apr 1, 2026
여러분, 혹시 몸이 조금이라도 불편할 때, 병원에 가기 전에 인터넷 검색부터 해보신 경험 없으신가요? 빠르고 간편하게 정보를 얻을 수 있다는 장점 때문에 우리는 이미 일상에서 온라인 건강 정보를 활발하게 활용하고 있습니다. 그런데 만약 여러분의 개인 의료 기록과 연동되어 정확한 건강 질문에 답하고, 맞춤형 진료를 조언해 줄 수 있는 AI 챗봇이 있다면 어떠실 것 같나요? 아마 솔깃하지 않을까요?
최근 몇 달 사이, 이러한 질문이 더 이상 가상의 시나리오가 아니게 되었습니다. 글로벌 거대 기술 기업들이 너도나도 AI 기반 헬스케어 챗봇 시장에 뛰어들면서, 이제 우리는 AI가 제공하는 건강 조언의 홍수 속에서 살아가게 될지도 모릅니다. 마이크로소프트는 이달 초 **코파일럿 헬스(Copilot Health)**를 출시하며 사용자 의료 기록 연결 및 건강 관련 질문 기능을 선보였습니다. 며칠 앞서 아마존 역시 기존 ‘원 메디컬(One Medical)’ 회원에게만 제공되던 LLM 기반 도구 **헬스 AI(Health AI)**를 일반에 확대했습니다. 이미 챗GPT 개발사인 OpenAI는 지난 1월 **챗GPT 헬스(ChatGPT Health)**를 내놓았고, 앤스로픽(Anthropic)의 클로드(Claude) 역시 사용자 동의 하에 건강 기록에 접근할 수 있습니다. 사실상 ‘대중을 위한 AI 헬스’ 시대가 공식적으로 막을 올린 셈입니다.
이러한 움직임은 분명 의미심장합니다. 기존 의료 시스템을 통해 건강 정보를 얻는 것이 얼마나 어려운 일인지 많은 분들이 공감하실 겁니다. 긴 대기 시간, 높은 비용, 정보의 불균형 등 여러 장벽이 존재하죠. 이러한 상황에서 24시간 내내, 비판단적인 태도로 질문에 답해주는 AI 챗봇은 분명 매력적인 대안으로 느껴질 수 있습니다. 마이크로소프트의 보도에 따르면, 매일 5천만 건의 건강 관련 질문이 코파일럿에 접수되고 있으며, 건강은 모바일 앱에서 가장 인기 있는 대화 주제라고 합니다. OpenAI 역시 헬스 제품 출시 전부터 챗GPT에서 건강 관련 질문이 급증하는 현상을 목격했다고 하니, 수요가 폭발적이라는 것은 부인할 수 없는 사실입니다. 의료 시스템 접근성이 어려운 특정 인구층에게는 더욱 절실한 도구일 수 있고요.
기업들은 이러한 AI 헬스 도구의 출현을 크게 두 가지 이유로 설명합니다. 첫째는 AI 기술, 특히 생성형 AI의 비약적인 발전입니다. 마이크로소프트 AI 헬스 부문 부사장인 도미닉 킹(Dominic King)은 생성형 AI가 건강 질문에 좋은 답변을 제공할 수 있을 만큼 역량이 엄청나게 발전했다고 강조합니다. 그리고 둘째는 앞서 언급한 압도적인 사용자 수요입니다. 인공지능이 질 높은 답변을 제공할 수준에 도달했고, 동시에 이에 대한 필요성이 그 어느 때보다 높다는 것이죠. 이처럼 기업들은 AI 헬스 챗봇이 사용자의 건강을 개선하고, 의료 시스템의 부담을 줄여주는 ‘선한’ 비전을 제시하고 있습니다. 예를 들어, 응급 진료가 필요한지 판단하는 트리아지(triage) 기능을 통해 사용자가 더 일찍 병원을 찾게 하거나, 경미한 증상은 챗봇의 조언으로 집에서 관리하며 응급실이나 병원 방문을 줄이는 효과를 기대하는 것입니다.
빛과 그림자: ‘선한 의지’ 뒤에 숨은 위험
하지만 빛이 강하면 그림자도 짙어지는 법이죠. 옥스퍼드 인터넷 연구소의 앤드류 빈(Andrew Bean) 박사과정생은 “우리는 항상 더 많은 의료 서비스가 필요할 것이기 때문에, 효과가 있는 모든 경로를 추구해야 한다”며 AI 헬스 도구의 잠재력을 인정합니다. 그러나 그는 곧이어 “하지만, 그에 대한 증거 기반이 반드시 뒷받침되어야 한다”고 강조합니다. 바로 이 지점에서 우리가 주목해야 할 중요한 문제가 드러납니다.
문제의 핵심은 **독립적인 검증(independent evaluation)**의 부재입니다. 건강과 같이 중대한 분야에서는 기업이 자사 제품을 스스로 평가하는 것만으로는 충분하지 않다는 것이 많은 전문가들의 공통된 의견입니다. 기업이 아무리 철저하고 엄격한 연구를 진행한다 해도 (실제로 OpenAI와 같은 일부 기업은 상당한 노력을 기울이고 있습니다), 그들만의 시야에 갇힌 **맹점(blind spots)**이 있을 수 있기 때문입니다. 외부 전문가들의 검토를 통해 이러한 맹점을 보완하고, 제품의 안전성과 효용성을 객관적으로 입증해야 한다는 목소리가 높습니다.
실제로 마운트 시나이 헬스 시스템의 최고 AI 책임자인 기리시 나드카르니(Girish Nadkarni)와 연구팀이 진행한 최근 연구는 이러한 우려를 뒷받침합니다. 이 연구에 따르면 챗GPT 헬스는 경미한 증상에 대해 때로는 과도한 진료를 권유하고, 때로는 응급 상황을 제대로 식별하지 못하는 경우가 있었습니다. 물론 OpenAI 측은 연구 방법론에 대해 이견을 제시하기도 했지만, 이 연구 결과는 AI 헬스 도구들이 대중에게 공개되기 전에 얼마나 적은 외부 평가를 거치는지에 대한 중요한 질문을 던지고 있습니다.

더 큰 문제는, 대부분의 AI 헬스 도구가 “진단이나 치료를 위한 목적이 아니다”라는 면책 조항(disclaimer)을 포함하고 있음에도 불구하고, 사용자들이 이를 무시하고 진단이나 치료에 활용할 가능성이 매우 높다는 점입니다. 베스 이스라엘 디커니스 메디컬 센터의 내과 의사이자 연구원인 아담 로드먼(Adam Rodman)은 “우리는 사람들이 이를 진단과 관리 목적으로 사용할 것이라는 사실을 모두 알고 있다”고 지적합니다. 솔직히 말해서, 위급한 상황에서, 혹은 병원 방문이 어려운 환경에서, 챗봇이 그럴듯한 답변을 내놓는다면 누가 면책 조항을 꼼꼼히 읽고 지킬까요? 이는 운동 계획 추천이나 의사에게 질문할 내용 제안과 같이 상대적으로 위험 부담이 적은 용도와는 차원이 다른 이야기입니다. 트리아지, 진단, 치료 계획 제안 등은 명백한 위험을 수반하는 영역입니다.
AI 헬스케어의 미래, 신뢰는 어떻게 구축될까?
저는 개인적으로 AI 헬스 챗봇이 의료 접근성이 낮은 이들에게 엄청난 잠재력을 가지고 있다고 생각합니다. 만약 제대로 작동한다면, 이 기술은 전 세계 수많은 사람들의 삶의 질을 혁신적으로 개선할 수 있을 것입니다. 하지만 동시에, 이러한 잠재력이 온전히 실현되기 위해서는 철저하고 투명하며 독립적인 검증 과정이 필수불가결하다는 점을 강조하고 싶습니다. 우리는 AI 기술이 ‘편리하다’는 이유만으로, 또는 ‘기업이 알아서 잘하겠지’라는 막연한 기대로 건강이라는 인류의 가장 중요한 가치를 도박에 걸어서는 안 됩니다.
업계의 흐름을 보면, AI 헬스 도구들은 앞으로 더욱 발전하고 우리의 삶 깊숙이 파고들 가능성이 높습니다. 하지만 의료 분야에서 실패의 비용은 단순히 금전적인 손실을 넘어, 인간의 생명과 직결될 수 있습니다. 그렇기에 AI 챗봇이 사람의 생명을 다루는 영역에 진입할 때는 여느 일반적인 서비스와는 비교할 수 없을 정도로 높은 윤리적, 안전성 기준이 적용되어야 합니다. 기술 기업과 의료 전문가, 그리고 규제 당국이 긴밀히 협력하여 AI 헬스케어의 안전한 도입과 확산을 위한 표준을 마련해야 할 때입니다.
지금의 상황은 마치 고속도로를 시속 200km로 달리는 최신형 자율주행차가 있는데, 이 차가 정말 안전하게 목적지에 도달하는지 공신력 있는 기관에서 제대로 테스트해본 적이 없는 것과 같습니다. 이 기술이 어디까지 왔고, 무엇을 할 수 있는지는 분명 놀랍습니다. 그러나 어떤 상황에서 위험할 수 있는지, 우리는 과연 이 기술을 믿고 의지할 수 있는지에 대한 답은 아직 명확하지 않습니다. AI 헬스케어의 미래는 결국 기술의 발전뿐만 아니라, 그 기술에 대한 신뢰를 어떻게 구축하느냐에 달려 있다고 생각합니다.
출처
- 원문 제목: There are more AI health tools than ever—but how well do they work?
- 출처: MIT Technology Review
- 원문 기사 보러가기