최근 Grammarly의 ‘Expert Review’ 기능이 사용자의 동의 없이 실존 인물들의 정체성을 무단으로 사용했다는 사실이 밝혀지며 큰 파장이 일고 있습니다. 저널리스트 줄리아 앵윈을 포함한 여러 전문가가 자신의 신원이 AI의 피드백 생성에 도용된 것을 확인하고 집단 소송을 제기했기 때문입니다. 편리함만을 쫓던 기술 이면에 숨겨진 AI의 어두운 단면이 드러난 셈입니다.

Grammarly Expert Review가 무엇인가
Grammarly는 사용자의 글을 교정해 주는 AI 도구로 잘 알려져 있습니다. 문제가 된 Expert Review 기능은 특정 분야 전문가의 조언을 빌려 글의 완성도를 높인다는 명목으로 출시되었습니다. 하지만 정작 해당 전문가들은 자신의 이름과 성향이 AI 모델의 데이터로 활용되는 것에 대해 어떠한 동의도 하지 않았다는 점이 논란의 핵심입니다.
왜 전문가들은 소송을 선택했나
줄리아 앵윈을 비롯한 피해자들은 자신의 퍼블리시티권과 프라이버시가 심각하게 침해당했다고 주장합니다. 상업적인 이익을 위해 특정인의 신원을 도용하는 행위는 단순한 기술적 오류를 넘어 법적인 금도를 넘은 것이라는 판단입니다. 이는 결국 AI 기업들이 데이터 학습과 활용 과정에서 겪는 윤리적 무감각을 여실히 보여줍니다.

AI 학습 데이터의 윤리적 한계는 어디까지인가
기술 기업들은 더 나은 성능을 위해 더 많은 데이터를 필요로 합니다. 하지만 그 과정에서 타인의 지적 재산이나 정체성을 무분별하게 사용하는 방식은 오래가지 못할 전략입니다. 이번 사태처럼 실존 인물이 직접 문제를 제기하게 되면 기업의 신뢰도에 치명적인 타격을 입게 됩니다.
기업의 뒤늦은 사과와 기능 중단
논란이 커지자 Grammarly 측은 해당 기능을 중단하겠다는 입장을 내놓았습니다. 최고경영자는 전문가들과 더 깊은 관계를 맺기 위한 의도였다고 해명했지만, 이미 훼손된 신뢰를 회복하기엔 역부족이라는 평가가 지배적입니다. 사용자와 전문가 모두가 납득할 수 있는 투명한 운영이 무엇보다 시급한 시점입니다.

데이터 도용 문제를 해결할 방법은 없을까
이제는 기술적 편리함보다 그 기술이 어떤 데이터를 어떻게 확보했는지를 따져봐야 합니다. 사용자는 내가 사용하는 도구가 정당한 절차를 거쳐 만들어졌는지 확인해야 하며, 개발사는 투명한 데이터 출처 공개를 의무화해야 합니다. 기술적 혁신이라는 이름으로 개인의 권리를 짓밟는 관행은 이제 바뀌어야 합니다.
이번 사건이 우리에게 남긴 숙제
이번 Grammarly 논란은 AI가 개인의 삶과 저작권을 침해할 수 있음을 경고합니다. 무분별하게 AI를 도입하기보다 기술의 윤리적 책임을 묻는 감시자로서의 역할을 수행해야 합니다. 편리한 글쓰기 도구를 넘어 정직한 기술 생태계를 구축하는 것이 우리 모두의 과제입니다.

출처: https://www.theverge.com/ai-artificial-intelligence/893451/grammarly-ai-lawsuit-julia-angwin
정리하며
지금까지 Grammarly의 전문가 도용 논란을 통해 AI 시대의 윤리적 책임에 대해 살펴보았습니다. 기술이 발전할수록 우리의 권리를 지키는 것 또한 기술을 사용하는 것만큼이나 중요해졌습니다. 여러분이 사용하는 AI 서비스는 과연 공정한 과정을 거치고 있는지 다시 한번 점검해 보시기 바랍니다.
이어서 보면 좋은 글
#Grammarly #AI윤리 #저작권침해 #인공지능뉴스 #데이터프라이버시 #테크이슈 #디지털권리 #줄리아앵윈 #AI논란 #기술윤리