구글이 검색 결과 최상단에 제공하는 인공지능 요약 서비스인 Google AI Overviews가 심각한 정신건강 상담 오류를 범하고 있다는 사실이 밝혀졌습니다. 영국의 정신건강 전문가들은 이 서비스가 복잡한 심리적 문제를 지나치게 단순화하여 취약한 상태의 사용자들에게 치명적인 오답을 제공하고 있다고 경고합니다. 단순히 정보의 정확도를 넘어 한 사람의 생명과 직결될 수 있는 사안인 만큼 현재 제공되는 인공지능 답변의 한계를 명확히 인지해야 합니다.

Google AI Overviews의 단정적인 어조가 위험한 이유
구글의 인공지능 요약은 기존 검색 방식과 달리 매우 단정적이고 확신에 찬 말투를 사용합니다. 과거에는 여러 웹사이트의 링크를 나열하여 사용자가 정보를 비판적으로 수용하게 했다면 지금은 인공지능이 정리한 단 하나의 정답만을 보여주는 형태입니다. 이러한 방식이 위험한 이유는 다음과 같습니다.
- 정보 탐색의 조기 종료: 사용자가 더 깊이 있는 의학적 근거를 찾지 않고 요약된 내용만 믿고 검색을 끝내버립니다.
- 맥락의 삭제: 정신건강은 개인마다 상황이 다른데 인공지능은 이를 무시하고 보편적인 사실처럼 답변을 평면화합니다.
- 권위의 왜곡: 세계 최대 검색 엔진이 보증하는 결과라는 인식이 생겨 오답조차 공신력 있는 정보로 오해하게 만듭니다.
인공지능이 거식증과 망상을 사실처럼 말하는 원리
영국의 정신건강 자선단체 마인드(Mind)의 전문가들이 직접 테스트한 결과 Google AI Overviews는 경악스러운 답변을 내놓았습니다. 인공지능은 데이터 학습 과정에서 통계적 확률로 다음 단어를 예측할 뿐 실제 내용의 윤리적 가치나 의학적 진위는 판단하지 못하기 때문입니다.
- 거식증 옹호: 굶주림이 건강에 유익하다는 식으로 답변하여 섭식 장애 환자에게 해를 끼쳤습니다.
- 피해망상 강화: 스토커가 실제로 존재한다는 식의 답변을 제공하여 조현병 환자의 증상을 악화시킬 우려를 낳았습니다.
- 부정확한 통계: 정신질환 관련 복지 혜택 신청자의 60%가 꾀병이라는 근거 없는 수치를 제시했습니다.

검색 결과 상단에 뜬 AI 요약이 왜 더 치명적일까?
정신적인 고통을 겪고 있는 사용자는 평상시보다 판단력이 흐려져 있을 가능성이 높습니다. 이때 검색창 맨 위에 뜨는 깔끔한 박스 형태의 답변은 마치 구세주처럼 느껴지기 마련입니다. 구글은 위기 상황에서만 일부 필터링을 작동시키지만 일상적인 우울감이나 불안을 검색하는 단계에서는 방어 기제가 제대로 작동하지 않습니다.
인공지능은 여러 출처의 정보를 무작위로 짜깁기하는 과정에서 서로 상충하는 조언을 한 문장에 섞어버리기도 합니다. 이는 혼란을 가중시키고 적절한 치료 시기를 놓치게 만드는 원인이 됩니다. 전문가들은 인공지능이 감정적 공감 능력이 없으면서도 차분하고 자신감 넘치는 문체를 사용한다는 점을 가장 큰 위험 요소로 꼽습니다.
잘못된 AI 의료 정보를 거르고 정확한 내용을 찾는 법
Google AI Overviews 정신건강 상담의 함정에 빠지지 않으려면 검색 습관을 바꿔야 합니다. 기술이 발전하더라도 의학적인 판단은 결국 검증된 인간 전문가의 영역임을 잊지 말아야 합니다.
- 출처 확인의 생활화: AI가 요약한 내용 아래에 링크된 원문 사이트가 공신력 있는 의료 기관인지 반드시 확인해야 합니다.
- 교차 검증: 인공지능의 답변을 그대로 믿지 말고 최소 2개 이상의 전문 기관 웹사이트 내용을 대조해 보시기 바랍니다.
- 전문 상담 채널 이용: 심리적 위기 상황에서는 검색 엔진보다 전문 상담 전화나 의료진을 직접 찾는 것이 가장 안전합니다.

정신건강 위기 상황에서 신뢰할 수 있는 기관 확인하기
온라인 정보가 범람하는 시대에 가장 중요한 것은 필터링 능력입니다. 구글과 같은 거대 기업이 수익을 위해 서둘러 도입한 인공지능 서비스는 아직 인간의 생명을 다룰 만큼 성숙하지 않았습니다. 특히 정신건강과 관련된 키워드는 검색 엔진의 요약보다 국가나 공인된 단체에서 운영하는 가이드라인을 우선시해야 합니다.
- 국가 지정 정신건강복지센터 활용하기
- 공신력 있는 비영리 단체의 정보 확인하기
- 검색 설정에서 AI 요약 기능 비활성화 고려하기
거대 기업 구글의 무책임한 AI 운영 방식과 그 이면
구글은 문제가 제기될 때마다 해당 답변을 삭제하거나 재학습시키는 방식으로 대응하고 있습니다. 하지만 전문가들은 이러한 두더지 잡기 식의 사후 처리가 근본적인 해결책이 될 수 없다고 지적합니다. 수십억 명의 사용자에게 영향을 미치는 플랫폼임에도 불구하고 충분한 검증 없이 서비스를 배포한 책임에서 자유로울 수 없기 때문입니다.
인공지능은 효율적인 도구일 수 있지만 결코 인간의 상담사를 대체할 수 없습니다. 특히 미묘한 뉘앙스와 맥락이 중요한 심리 치료 영역에서 인공지능이 내놓는 매끄러운 오답은 독이 될 수 있습니다. 사용자는 스스로를 보호하기 위해 기술에 대한 맹신을 버리고 비판적인 태도를 유지해야 합니다.

AI 정보 홍수 시대에 나를 지키는 방법
인공지능이 주는 편리함 뒤에는 예상치 못한 위험이 도사리고 있습니다. Google AI Overviews 정신건강 정보는 아직 불완전하며 때로는 매우 해롭습니다. 자신의 마음 건강을 지키기 위해서는 기술이 제안하는 쉬운 길 대신 조금 느리더라도 정확하고 검증된 전문가의 조언을 따르는 지혜가 필요합니다. 인공지능의 자신감 넘치는 말투에 속지 말고 본인의 판단력을 믿으시기 바랍니다.
출처: https://www.theguardian.com/society/2026/feb/20/mind-mental-health-expert-google-ai-summaries
이어서 보면 좋은 글
#GoogleAIOverviews #정신건강상담위험성 #인공지능오답 #구글AI오류 #정신건강정보 #AI상담한계 #디지털헬스케어 #인공지능윤리 #마인드조사 #검색엔진부작용