최근 많은 사용자가 문법 교정 도구로 활용하는 그래머리의 ‘전문가 검토(Expert Review)’ 기능이 논란의 중심에 섰습니다. 유명 인사들의 문체를 학습해 조언을 제공한다는 명목으로 출시된 이 기능이, 정작 당사자들의 동의 없이 그들의 정체성과 저작물을 활용하고 있다는 사실이 밝혀졌기 때문입니다. 기술이 편의를 제공하는 단계를 넘어, 개인의 권리를 어디까지 침범할 수 있는지에 대한 경고음이 울리고 있습니다.

그래머리 전문가 검토 기능의 정체는 무엇인가
그래머리가 지난 8월 도입한 이 기능은 사용자의 글을 분석해 업계 전문가의 관점에서 피드백을 제공합니다. 마치 실제 전문가가 내 글을 첨삭해주는 듯한 경험을 주기 위해 유명 인사들의 스타일을 모방하도록 설계되었습니다. 하지만 이 과정에서 특정인의 동의를 구하는 절차는 생략되었습니다. 단순히 공개된 데이터를 활용한다는 이유만으로 타인의 이름과 스타일을 도구화하는 행위가 정당한지 의문이 제기되는 지점입니다.
왜 전문가들은 자신의 이름이 도용되었다고 느끼는가
실제로 더 버지(The Verge)의 편집장과 주요 에디터들은 자신들이 이 서비스의 ‘전문가’로 무단 등재된 사실을 확인했습니다. 더욱 심각한 점은 AI가 생성한 피드백이 해당 전문가들의 실제 철학과도 거리가 멀다는 것입니다. 과거의 저작물을 단순히 나열하는 수준을 넘어, 특정 전문가의 브랜드 가치를 빌려 사용자에게 그럴듯한 조언을 제공하는 방식은 명백한 정체성 도용에 가깝습니다.

공공의 영역에 있으면 모두 학습해도 괜찮을까
그래머리 측은 전문가들이 공개한 저작물이 널리 인용되므로 문제가 없다는 입장을 보입니다. 하지만 누구나 볼 수 있는 글이라고 해서 AI가 특정 개인의 페르소나를 완벽하게 모방하여 서비스 상품으로 만드는 것까지 허용되는 것은 아닙니다. 기술의 발전이 공공의 자산을 활용하는 것과 개인의 고유한 지적 재산을 착취하는 것 사이에서 어디에 선을 그어야 하는지 진지한 논의가 필요한 시점입니다.
AI가 제공하는 전문가 조언을 신뢰할 수 있는가
이번 논란에서 드러난 또 다른 문제는 기술적 완성도입니다. AI가 제공하는 ‘전문가’ 조언을 추적해보면 정작 원작자의 출처와 연결되지 않거나, 전혀 관련 없는 스팸성 링크로 연결되는 경우가 빈번합니다. 심지어 잘못된 직함을 기재하는 등 기초적인 사실관계조차 틀리는 사례가 발견되었습니다. 이는 단순한 도용 문제를 넘어, 잘못된 정보를 전문가의 권위를 빌려 유통하는 위험성을 내포하고 있습니다.

사용자는 이제 AI 도구를 어떻게 바라봐야 할까
기술은 점점 더 정교하게 인간을 모방하고 있습니다. 하지만 그 기술의 기반이 누군가의 권리를 짓밟고 쌓아 올린 것이라면 우리는 한 번 더 고민해야 합니다. AI가 제안하는 문장 수정이 유용할 수는 있지만, 그 뒤에 숨겨진 윤리적 비용을 인지하고 사용하는 태도가 필요합니다. 앞으로 우리는 AI 도구를 선택할 때 개발사의 투명성과 데이터 활용 방식까지 꼼꼼히 따져보는 안목을 길러야 합니다.
요약하며
그래머리의 이번 사례는 AI 기술이 기존의 디지털 윤리 체계를 어떻게 흔들고 있는지 보여주는 상징적인 사건입니다. 기술의 편리함 뒤에 가려진 타인의 권리를 기억하고, 우리가 생성하는 콘텐츠가 어떻게 학습되고 활용되는지 관심을 기울여야 할 때입니다.
출처: https://www.theverge.com/ai-artificial-intelligence/890921/grammarly-ai-expert-reviews

이어서 보면 좋은 글
#그래머리 #AI윤리 #데이터학습 #저작권논란 #디지털권리 #AI기능 #전문가검토 #기술의명암 #지적재산권 #개인정보보호