AI가 내 전문성을 훔쳐갔다고? 그래머리 '전문가 리뷰' 기능, 집단 소송 직면!
Published Mar 12, 2026
안녕하세요, AI 기술의 최전선에서 흥미로운 소식을 전해드리는 AI 뉴스 블로거입니다. 오늘은 인공지능 기술의 발전이 가져오는 편리함 이면에 숨겨진 윤리적, 법적 문제에 대해 깊이 있게 들여다볼 시간을 가져보려 합니다. 특히 최근 AI 글쓰기 도우미로 많은 사랑을 받아온 **그래머리(Grammarly)**를 둘러싼 논란은, 인공지능이 인간의 지식과 명성을 어떻게 활용해야 하는가에 대한 중요한 질문을 던지고 있습니다. 단순히 AI의 기술적 역량을 넘어, 디지털 시대의 사생활 보호, 초상권, 그리고 지적 재산권의 경계에 대한 우리 사회의 이해를 시험하는 사건이라고 할 수 있습니다.
최근 그래머리가 출시했던 ‘전문가 리뷰(Expert Review)’ 기능은 인공지능이 저명한 작가나 전문가의 스타일로 피드백을 제공한다는 혁신적인 아이디어로 주목받았습니다. 유명 소설가 스티븐 킹, 고인이 된 과학자 칼 세이건, 저명한 IT 저널리스트 카라 스위셔 등 수백 명의 전문가 이름을 빌려 사용자의 글에 대한 편집 의견을 제시하는 방식이었죠. 그러나 이 기능은 서비스의 주체인 그래머리가 해당 전문가들로부터 아무런 사전 동의를 받지 않았다는 점에서 치명적인 문제를 안고 있었습니다. 이는 곧바로 큰 파장을 불러왔고, 결국 한 저널리스트의 주도로 집단 소송이라는 법적 분쟁으로까지 이어지게 되었습니다.
이 소송은 단순히 한 기업과 개인 간의 분쟁을 넘어, 인공지능 기술이 인간의 정체성과 전문성을 어떻게 다루어야 하는지에 대한 중요한 선례를 남길 가능성이 큽니다. AI가 특정 인물의 **페르소나(persona)**를 모방하여 서비스를 제공할 때, 이는 과연 창조적인 활용으로 볼 수 있을까요, 아니면 무단 도용에 해당하는 걸까요? 이러한 질문들은 인공지능 시대에 우리가 직면하게 될 수많은 윤리적 난제 중 하나이며, 이번 그래머리 사태는 그 복잡성을 명확히 보여주는 사례입니다.
그래머리 ‘전문가 리뷰’ 기능의 논란과 법적 쟁점
그래머리의 ‘전문가 리뷰’ 기능은 AI가 특정 분야의 저명한 인사의 목소리와 전문성을 모방하여 사용자에게 맞춤형 글쓰기 피드백을 제공하는 것을 목표로 했습니다. 이는 언뜻 보기에 매우 혁신적이고 매력적인 서비스처럼 들렸지만, 그 이면에는 심각한 윤리적, 법적 문제가 도사리고 있었습니다. 문제의 핵심은 그래머리가 이 기능을 구현하면서 그들의 이름과 명성을 사용한 수백 명의 전문가들로부터 단 한 번의 동의도 구하지 않았다는 점입니다. 이로 인해 개인의 권리 침해 논란이 불거지며 결국 법적 분쟁으로 발전하게 된 것입니다.
- 그래머리의 ‘전문가 리뷰’ 기능: 연간 144달러를 지불하는 유료 구독자들을 대상으로 출시된 이 기능은, AI가 저명한 전문가(예: 스티븐 킹, 칼 세이건, 카라 스위셔)의 글쓰기 스타일과 비평 관점을 모방하여 사용자에게 편집 피드백을 제공하는 것을 표방했습니다. 이는 사용자들이 마치 유명 전문가에게 직접 지도를 받는 듯한 경험을 할 수 있을 것이라는 기대를 모았지만, 실제로는 동의 없는 명성 도용이라는 비판에 직면했습니다.
- 언론인 줄리아 앙윈의 집단 소송 제기: 이번 사태의 선봉에 선 인물은 다름 아닌 저명한 언론인이자 작가인 **줄리아 앙윈(Julia Angwin)**입니다. 앙윈은 그래머리의 모회사인 **슈퍼휴먼(Superhuman)**을 상대로 자신을 포함한 다른 작가들의 **사생활 및 공표권(privacy and publicity rights)**을 침해했다는 이유로 집단 소송을 제기했습니다. 이 소송은 유사한 피해를 입은 다른 작가들이 앙윈의 소송에 합류할 수 있도록 하는 형태로 진행되고 있습니다.
- 개인의 전문성과 명성 무단 도용 문제: 앙윈은 “수십 년 동안 작가이자 편집자로서의 기술을 연마해왔는데, 한 기술 회사가 내 힘들게 얻은 전문성의 모조품을 팔고 있다는 사실에 큰 충격을 받았다”고 강하게 비판했습니다. 이는 AI가 개인의 고유한 전문성과 정체성을 동의 없이 상업적으로 활용하는 행위가 얼마나 심각한 윤리적, 법적 문제를 야기할 수 있는지를 극명하게 보여주는 발언입니다. 그녀의 발언은 수많은 창작자와 전문가들에게 공감을 얻으며, AI 기술 개발의 윤리적 책임에 대한 중요성을 다시 한번 상기시키고 있습니다.
- 아이러니한 상황과 AI 윤리 논란: 더욱 아이러니한 점은 줄리아 앙윈이 자신의 경력 대부분을 기술 기업의 사생활 침해 영향에 대한 조사를 이끌며 보내왔다는 사실입니다. 즉, 그녀 자신이 기술의 윤리적 경계를 지키는 데 앞장서 온 인물이라는 것이죠. 또한, 저명한 AI 윤리학자인 **팀닛 게브루(Timnit Gebru)**와 같은 이 기술의 비평가들조차 그래머리의 ‘전문가 리뷰’ 기능에 포함되었다는 점은, AI 개발 과정에서 윤리적 고려가 얼마나 부족했는지를 단적으로 보여줍니다.
- 기능의 실질적인 실패와 전문가들의 반응: 예상대로 ‘전문가 리뷰’ 기능은 “사려 깊은 피드백”이라는 약속을 제대로 이행하지 못했습니다. 실제로 테크크런치(TechCrunch)의 기자 뉴턴(Newton)이 카라 스위셔(Kara Swisher) AI의 피드백을 받아본 결과, “일상적인 AI 사용자와 AI 회의론자가 위험을 어떻게 표현하는지 간략하게 비교하여 독자들이 따라갈 수 있는 일관된 흐름을 만들어 줄 수 있겠는가?”와 같은 모호한 답변을 받았습니다. 이에 대해 실제 카라 스위셔는 “너희 강탈자 정보 및 신원 도둑들은 내가 완전히 맥커너히(McConaughey)처럼 굴 준비를 해야 할 거야. 그리고 너희 정말 형편없어!”라는 격한 반응을 보이며 그래머리에 대한 불쾌감을 여과 없이 드러냈습니다. 이는 AI가 유명 인사의 페르소나를 얼마나 어설프게 모방했는지, 그리고 그로 인해 실제 인물에게 얼마나 큰 불쾌감과 명예 훼손을 안겨줄 수 있는지를 잘 보여주는 사례입니다.

그래머리의 대응과 AI 기술의 미래 지향점
논란이 확산되자 그래머리의 모회사 슈퍼휴먼의 CEO인 **시시르 메흐로트라(Shishir Mehrotra)**는 링크드인(LinkedIn) 게시물을 통해 ‘전문가 리뷰’ 기능을 비활성화했음을 밝혔습니다. 이는 비록 뒤늦은 조치였지만, 사용자들의 비판과 법적 위협에 대한 회사의 최소한의 대응이라고 볼 수 있습니다. 메흐로트라 CEO는 사과를 표명하면서도, 해당 기능의 근본적인 아이디어 자체는 옹호하려는 태도를 보였습니다. 이러한 상황은 단순히 기능 비활성화를 넘어 AI 기술이 나아가야 할 방향에 대한 깊은 논의를 요구하고 있습니다.
- 논란 기능의 비활성화 및 CEO의 사과: 메흐로트라 CEO는 링크드인 게시물을 통해 문제가 된 ‘전문가 리뷰’ 기능을 즉시 비활성화했다고 밝혔습니다. 그는 이번 사태로 인해 발생한 모든 문제에 대해 사과를 표명했지만, 이는 이미 많은 전문가들의 명성이 훼손되고 법적 분쟁이 시작된 이후의 조치였습니다. 이러한 대응은 기업이 혁신을 추구하는 과정에서 윤리적 검토와 사용자 동의가 얼마나 중요한지를 다시 한번 일깨워주고 있습니다.
- 기능의 잠재적 비전에 대한 지속적인 옹호: 비록 기능을 비활성화했지만, 메흐로트라 CEO는 “교수님이 에세이를 다듬어주고, 영업 리더가 고객 피치를 재구성하며, 사려 깊은 비평가가 당신의 주장에 도전하고, 선도적인 전문가가 당신의 제안을 향상시키는 것을 상상해보세요”라고 언급하며 해당 기능이 가진 이상적인 비전을 옹호했습니다. 그는 전문가들에게는 이것이 “그래머리가 그랬던 것처럼, 사용자들과 보편적인 유대감을 형성할 기회”라고 주장했습니다. 이 발언은 AI가 인간의 전문성을 보완하고 확장하는 강력한 도구가 될 수 있다는 낙관적인 시각을 반영하지만, 그 과정에서 반드시 개인의 권리 보호와 정당한 동의가 선행되어야 한다는 점을 간과해서는 안 됩니다.
- AI 윤리와 책임 있는 개발의 중요성: 이번 그래머리 사태는 AI 기술 개발에 있어 윤리적 고려와 책임 있는 접근 방식의 중요성을 강조합니다. 특히 저명한 AI 윤리학자인 팀닛 게브루와 같은 인물들까지 동의 없이 서비스에 포함되었다는 사실은, AI 기술 기업들이 혁신이라는 명분 아래 윤리적 가이드라인을 얼마나 쉽게 무시할 수 있는지를 보여줍니다. AI가 인간 사회에 미치는 영향이 커질수록, 개발자들은 기술적 진보뿐만 아니라 사회적 책임과 윤리적 원칙을 동시에 고려해야 합니다.
- 사용자 신뢰 회복의 과제: 그래머리는 오랫동안 수많은 사용자들에게 글쓰기 보조 도구로서 신뢰를 쌓아왔습니다. 그러나 이번 사태로 인해 사용자들은 그래머리가 자신들의 데이터를 어떻게 활용하고, 어떤 윤리적 기준을 가지고 서비스를 제공하는지에 대해 깊은 의구심을 품게 될 것입니다. 기업은 이러한 신뢰를 회복하기 위해 단순히 문제 기능을 비활성화하는 것을 넘어, 투명하고 일관된 윤리 정책을 수립하고 이를 적극적으로 소통해야 할 것입니다.
AI와 정체성: 산업 전반에 미칠 영향과 분석
그래머리 사태는 단순한 법적 분쟁을 넘어, 인공지능 산업 전반에 걸쳐 심오한 질문을 던지고 있습니다. 특히 AI 모델이 방대한 데이터를 학습하고 이를 바탕으로 새로운 콘텐츠를 생성하거나 특정 인물의 스타일을 모방할 때 발생하는 윤리적, 법적 문제에 대한 논의를 촉발하고 있습니다. 이는 디지털 시대에 개인의 정체성과 지적 재산권을 어떻게 보호할 것인가에 대한 중요한 시험대가 될 것입니다.
이번 사건은 AI가 실제 인물의 명성과 전문성을 동의 없이 활용했을 때 발생할 수 있는 파장을 극명하게 보여줍니다. 특히 생성형 AI(Generative AI) 기술이 발전하면서, 특정 작가의 문체나 예술가의 화풍을 모방하거나, 심지어 특정 인물의 목소리나 외모를 재현하는 것이 기술적으로 가능해지고 있습니다. 이러한 기술의 발전은 창작의 새로운 지평을 열 수도 있지만, 동시에 원작자의 권리 침해, **딥페이크(Deepfake)**와 같은 윤리적 오용 가능성을 높이기도 합니다. 그래머리 사례는 AI 개발사들이 이러한 기술을 서비스에 통합할 때, 사전 동의와 투명한 고지가 필수적이라는 강력한 경고 메시지를 던지고 있습니다. 또한, 기술 기업들이 자사의 서비스가 사회에 미칠 잠재적 영향을 심층적으로 분석하고, 기술의 악용 가능성을 최소화하기 위한 윤리적 안전장치를 마련해야 한다는 책임감을 부여합니다.
이번 집단 소송은 AI 기술의 발전 속도에 비해 법적, 윤리적 기준이 아직 미비하다는 점을 부각시킵니다. 앞으로 유사한 사례가 계속해서 발생할 가능성이 높으며, 이는 결국 AI 관련 법규의 제정 및 개정을 가속화하는 촉매제가 될 것입니다. 법원은 AI가 창작 활동을 보조하거나 특정 인물을 모방할 때, 원본 저작권자와 모방 대상 인물의 권리를 어떻게 정의하고 보호할 것인지에 대한 새로운 판례를 만들어나가야 할 것입니다. 이는 AI 산업의 성장 방향과 속도에도 직접적인 영향을 미칠 것이며, 기업들은 단순히 기술 개발에만 몰두할 것이 아니라, 법률 전문가 및 윤리 학자들과의 협력을 통해 지속 가능한 성장 전략을 모색해야 할 것입니다.
미래 전망: AI 시대의 윤리적 책임과 공정한 협력 모델 구축
그래머리 사태는 인공지능 기술이 우리 삶의 모든 측면에 더욱 깊숙이 침투하면서 발생하는 복잡한 윤리적, 법적 난제들을 명확히 보여주는 사례입니다. 단순히 기술적 혁신만을 추구할 것이 아니라, 그 기술이 인간의 권리와 존엄성에 미치는 영향을 심도 있게 고려해야 한다는 중요한 교훈을 주고 있습니다. 앞으로 AI 기술 기업들은 이러한 문제를 어떻게 해결하고, 어떤 방향으로 나아가야 할까요?
이번 사건은 AI 기업들이 더 이상 기술 개발의 속도만을 우선시해서는 안 되며, 윤리적 책임과 사회적 영향을 최우선 가치로 두어야 함을 시사합니다. 미래의 AI 서비스는 개인의 사생활 보호, 공표권, 지적 재산권을 침해하지 않는 선에서 혁신을 추구해야 합니다. 이를 위해서는 기술 개발 단계부터 법률 전문가, 윤리 학자, 그리고 관련 분야의 실제 전문가들이 함께 참여하는 다자간 협력 모델이 필수적입니다. 그래머리의 ‘전문가 리뷰’ 기능이 만약 초기 단계부터 해당 전문가들과의 협의를 통해 설계되었다면, 지금과 같은 법적 분쟁은 피할 수 있었을 것입니다. 즉, AI가 인간의 지식과 창조성을 활용하는 새로운 방식을 모색할 때, 이는 일방적인 차용이 아닌 공정한 협력의 형태로 이루어져야 한다는 점을 분명히 해야 합니다.
결론적으로, 그래머리 사태는 AI 시대의 새로운 게임의 규칙을 정립하는 중요한 전환점이 될 것입니다. 앞으로 AI 기술은 더욱 빠르게 발전하며 인간의 삶에 더 많은 편리함을 가져다줄 것입니다. 그러나 그 과정에서 인간의 가치와 권리가 훼손되지 않도록 경계하고, 책임감 있는 혁신을 위한 노력을 게을리해서는 안 됩니다. AI가 진정으로 인류에게 유익한 기술이 되기 위해서는 기술 개발의 윤리적 기반을 튼튼히 하고, 모든 이해관계자가 공정하게 참여하는 상생의 생태계를 구축하는 것이 무엇보다 중요하다고 할 수 있습니다. 이번 사건이 AI 기술과 인간의 공존을 위한 더욱 성숙한 논의의 장을 열어주기를 기대해 봅니다.
출처
- 원문 제목: A writer is suing Grammarly for turning her and other authors into ‘AI editors’ without consent
- 출처: AI News & Artificial Intelligence | TechCrunch
- 원문 기사 보러가기