최근 일론 머스크의 xAI가 선보인 그로키피디아 0.2 버전이 뜨거운 감자입니다. 누구나 편집을 제안할 수 있게 바뀌었지만, AI 챗봇 ‘그록’이 실제 편집을 주도하면서 여러 문제가 불거지고 있는데요. 과연 그로키피디아는 인류 지식의 기념비가 될 수 있을까요? 아니면 혼란스러운 정보의 늪에 빠지게 될까요? 이 글에서 그로키피디아의 AI 편집 시스템이 가진 문제점들을 자세히 파헤쳐 봅니다.

그로키피디아 0.2, 모두에게 열린 편집의 문?
일론 머스크는 그로키피디아를 인류 지식의 결정체로 만들고 싶어 했죠. 하지만 초기 버전부터 인종차별적이고 성차별적인 내용, 그리고 머스크를 과도하게 칭찬하는 등의 문제로 논란이 끊이지 않았습니다. 그러다 몇 주 전, 0.2 버전이 공개되면서 누구나 편집을 제안할 수 있게 바뀌었는데요. 텍스트를 강조 표시하고 ‘편집 제안’ 버튼을 누른 다음, 변경 요약과 근거 자료를 제출하는 방식은 매우 간단합니다. 문제는 이 제안을 검토하고 실제 변경 사항을 적용하는 주체가 바로 xAI의 AI 챗봇 ‘그록’이라는 점이에요. 이 부분이 그로키피디아 AI 편집 시스템의 핵심이자, 동시에 가장 큰 우려를 낳는 지점입니다.

AI 챗봇 그록, 투명성 없는 편집 시스템의 문제점
위키피디아는 활발한 인간 편집자 커뮤니티가 ‘최근 변경 사항’ 페이지를 면밀히 주시하며 편집의 투명성을 유지합니다. 하지만 그로키피디아의 AI 챗봇 그록은 다릅니다. 지금까지 22,319건의 편집이 승인되었다고는 하지만, 어떤 페이지에서 무슨 편집이 일어났는지, 누가 제안했는지 확인할 방법이 전혀 없습니다. 위키피디아의 잘 정리된 편집 로그와는 대조적이죠.
게다가 그로키피디아의 편집 기록 시스템은 투명성을 기대하기 어렵습니다. 페이지 측면에 작게 뜨는 팝업창에서 타임스탬프, 제안 내용, 그리고 그록의 결정과 복잡한 AI 생성 이유를 수동으로 스크롤해야만 볼 수 있어요. 특정 시간이나 유형별로 정렬하는 기능도 없어, 많은 편집이 이뤄지면 사실상 사용 불가능한 수준입니다. 이러한 그로키피디아의 AI 편집 시스템은 정보의 신뢰성과 투명성에 대한 심각한 의문을 제기합니다.

혼란스러운 편집 기록, 예측 불가능한 AI 판단
그록은 편집자로서 일관성이 부족한 모습을 자주 보여줍니다. 예를 들어, 일론 머스크의 전기 페이지에서는 그의 트랜스젠더 딸 비비안에 대한 편집 제안이 있었습니다. 사용자들이 성 정체성에 맞는 이름과 대명사를 사용하도록 제안했지만, 그록은 이를 부분적으로만 반영하여 페이지 전반에 걸쳐 혼란스러운 대명사 사용을 초래했어요.
더욱 놀라운 점은 그록이 설득에 취약하다는 것입니다. 어떤 사용자가 로마 제국의 멸망에 대한 머스크의 인용문의 ‘진위 확인’을 제안했을 때, 그록은 필요 없다고 거절했습니다. 하지만 비슷한 내용의 다른 문구를 제안하자 그록은 이를 수락하며 이전에 불필요하다고 판단했던 정보를 추가하기도 했어요. 이는 악의적인 사용자가 AI 챗봇의 취약점을 이용해 특정 의도를 가진 편집을 승인받을 수 있다는 위험성을 보여줍니다. 이처럼 일관성 없고 예측 불가능한 AI 챗봇의 편집 판단은 그로키피디아의 정보 신뢰도를 크게 떨어뜨릴 수 있습니다.

그로키피디아와 위키피디아: 극명하게 갈리는 미래
위키피디아는 소규모의 자원봉사 관리자 군대가 편집 표준을 시행하고, 파손 행위나 편집 전쟁 발생 시 계정을 차단하거나 페이지를 잠급니다. 반면 그로키피디아는 이러한 보호 장치가 명확하지 않아, 무작위 사용자들과 AI 챗봇의 자비에 완전히 놓여 있습니다. 홀로코스트 관련 페이지에서 발생한 반복적인 (하지만 거부된) 악의적인 편집 제안 사례는 이러한 취약성을 여실히 보여줍니다. 위키피디아에서는 이런 민감한 페이지들이 ‘보호’되어 특정 계정만 편집할 수 있도록 제한되죠.
이러한 차이점은 두 플랫폼의 미래를 극명하게 가릅니다. 그로키피디아는 현재의 혼란스러운 편집 시스템과 그록의 제한적인 안전장치로는 곧 오독 가능한 허위 정보의 늪으로 변질될 위험이 있습니다. 지식의 보고를 지향했지만, 현실은 디스인포메이션의 온상이 될 수도 있다는 우려가 커지고 있습니다.

마무리
그로키피디아의 AI 챗봇 편집 시스템은 편리함과 효율성이라는 잠재력을 가졌지만, 투명성 부족, 일관성 없는 AI 판단, 그리고 악의적인 편집에 대한 취약성이라는 심각한 문제들을 안고 있습니다. 인류 지식의 미래를 그리는 혁신적인 시도임에는 분명하지만, 그로키피디아가 진정으로 신뢰할 수 있는 정보원이 되기 위해서는 위키피디아와 같은 강력한 관리 및 검증 시스템을 도입해야 할 것입니다. 여러분은 그로키피디아의 AI 편집 시스템에 대해 어떻게 생각하시나요? 댓글로 의견을 공유해주세요!
출처: https://www.theverge.com/report/837431/grokipedia-update-editing-mess