AI 개발자도 피하는 인공지능? 3가지 진짜 이유!

인공지능(AI) 기술이 우리 삶 깊숙이 파고드는 요즘, 정작 AI를 개발하고 평가하는 내부자들은 그 위험성을 경고하며 사용을 피하라고 조언합니다. 과연 AI 개발자들이 인공지능에 불신을 갖는 진짜 이유는 무엇일까요? 이 글에서 3가지 핵심 포인트를 파헤쳐 봅니다.

A bewildered Korean person, an AI worker, looking cautiously at a glowing, abstract AI interface, with a subtle look of distrust. The background is a modern, slightly desaturated office setting. No text, clean design, balanced lighting.

AI 작업자들이 인공지능을 불신하는 놀라운 이유

AI 모델을 실제로 다루는 작업자들은 일반 사용자들이 알지 못하는 AI의 취약점들을 생생하게 경험합니다. 예를 들어, 아마존 메카니컬 터크(Amazon Mechanical Turk)에서 AI 생성 텍스트의 품질을 평가하던 크리스타 팔로스키(Krista Pawloski)는 인종차별적 표현을 무심코 지나칠 뻔한 아찔한 경험을 했습니다. 수많은 AI 작업자들이 비슷한 실수를 반복할 수 있다는 사실에 충격을 받은 그녀는 개인적으로 생성형 AI 제품을 사용하지 않으며, 가족들에게도 AI 도구를 멀리하라고 조언합니다.

구글의 AI 평가자로 일하는 한 작업자 역시 AI가 생성한 의료 관련 답변에 대한 회사의 접근 방식에 깊은 우려를 표했습니다. 전문 의료 훈련이 없는 동료들이 비판 없이 AI 답변을 평가하는 모습을 보며, 그녀는 10살 딸의 챗봇 사용을 금지했다고 합니다. 이처럼 AI 개발의 최전선에 있는 사람들은 AI가 겉으로 보이는 신뢰성과는 달리, 실제로는 치명적인 오류와 편견을 내포하고 있음을 직접 목격하고 있습니다.

A Korean AI worker at a desk, looking stressed while evaluating AI-generated content on a screen. Papers are scattered, illustrating the overwhelming nature of the task. Warm, natural lighting, a slightly messy but lived-in background. No text, lifestyle photography.

“쓰레기를 넣으면 쓰레기가 나온다”: AI 모델의 치명적 결함

AI 모델의 신뢰성에 대한 또 다른 핵심 문제는 바로 ‘데이터’입니다. 구글 AI 평가자로 일했던 한 역사 전공자는 모델의 한계를 시험하는 과정에서 편향성을 발견했다고 말합니다. 팔레스타인 역사에 대한 질문에는 답변을 회피하면서도, 이스라엘 역사에 대해서는 상세한 답변을 내놓는 것을 보고 AI 모델 학습 데이터의 심각한 결함을 인지했습니다.

그는 “쓰레기를 넣으면 쓰레기가 나온다(garbage in, garbage out)”는 컴퓨터 프로그래밍 원칙을 언급하며, AI 모델에 부실하거나 불완전한 데이터가 입력되면 그 결과물 또한 결함을 가질 수밖에 없다고 강조합니다. 이러한 경험을 통해 그는 생성형 AI 사용을 피하고, 가족과 친구들에게도 AI 통합 기능이 있는 새 휴대전화를 구매하지 않거나 자동 업데이트를 거부하라고 조언했습니다. AI의 지능은 결국 우리가 제공하는 데이터의 질에 달려있다는 것을 보여주는 중요한 사례입니다.

속도와 이윤이 우선된 AI 개발의 어두운 이면

많은 AI 작업자들은 AI 모델을 불신하는 주된 이유로 ‘품질보다 속도’를 우선시하는 개발 환경을 꼽습니다. 아마존 메카니컬 터크에서 일하는 브룩 한센(Brook Hansen)은 “우리는 모델을 개선해야 하지만, 모호하거나 불완전한 지침, 최소한의 훈련, 비현실적인 시간 제약 속에서 작업을 수행해야 한다”고 말합니다. 작업자들이 필요한 정보와 자원을 충분히 받지 못한다면, 안전하고 정확하며 윤리적인 결과물을 기대하기 어렵다는 것이죠.

미디어 문해력 비영리 단체 뉴스 가드(NewsGuard)의 조사에 따르면, 챗봇의 거짓 정보 반복 가능성은 2024년 8월 18%에서 2025년 8월 35%로 거의 두 배 증가했습니다. 답변을 회피하는 비율은 31%에서 0%로 떨어졌는데, 이는 AI가 모르는 것에 대해 ‘모른다’고 말하기보다 자신감 있게 거짓 정보를 내놓는 경향이 강해졌음을 시사합니다. 이러한 결과는 기업들이 안전성이나 품질 검증보다 빠른 출시와 확장에 집중하고 있다는 비판을 뒷받침합니다.

An infographic with a large, stylized dollar sign overshadowing a smaller, fragile-looking AI brain icon. Gears and cogs are in the background, suggesting a complex but unbalanced system. High contrast, modern layout, no text.

AI의 윤리적 문제와 책임감 있는 개발의 중요성

AI의 윤리적 문제는 비단 개발 과정에만 국한되지 않습니다. AI 작업자들은 “이것은 윤리적인 로봇이 아니라 그저 로봇일 뿐”이라고 단언하며, 챗봇이 거짓말을 멈춘다면 훌륭할 것이라고 농담 섞인 비판을 하기도 합니다. AI가 의료 문제나 민감한 윤리적 질문에 대해 전문 지식 없이 답변하는 상황은 심각한 결과를 초래할 수 있습니다.

AI 배후의 노동을 연구하는 아디오 디니카(Adio Dinika)는 “시스템이 어떻게 엉성하게 조립되었는지, 편견과 촉박한 일정, 끊임없는 타협을 보면 AI를 미래 지향적인 것으로 보기보다 연약한 것으로 보게 된다”고 말합니다. AI가 마법이 아니며, 그 뒤에는 수많은 보이지 않는 노동자들과 정보의 신뢰성 문제가 숨어있다는 것을 강조하는 것입니다. 소비자들도 의류 산업의 윤리적 문제에 관심을 갖게 된 것처럼, AI에 대해서도 “데이터는 어디에서 오는가?”, “저작권 침해 위에 구축된 모델인가?”, “작업자들은 정당한 대가를 받았는가?”와 같은 질문을 던져야 할 때입니다.

A Korean person looking thoughtfully at a holographic representation of ethical dilemmas, symbolized by a balanced scale with AI icons on one side and human values on the other. The background is a gradient of blues and purples, suggesting deep thought. Illustration, artistic rendering, no text.

진짜 AI 시대, 우리 모두의 지혜가 필요해요

오늘날 인공지능(AI)은 우리 삶에 깊숙이 들어와 있지만, 그 이면에는 수많은 개발자와 평가자들의 고뇌와 경고가 숨어있습니다. AI의 한계와 위험성을 정확히 이해하고, 단순히 편리함만을 좇기보다는 비판적인 시각으로 기술을 바라보는 것이 중요합니다. 우리 모두가 AI에 대해 더 많은 질문을 던지고, 책임감 있는 개발과 사용을 요구할 때, 비로소 안전하고 신뢰할 수 있는 AI 시대를 만들어 갈 수 있을 거예요.

출처: https://www.theguardian.com/technology/2025/nov/22/ai-workers-tell-family-stay-away


함께 보면 좋은 글

#AI불신 #인공지능위험성 #AI개발자 #AI윤리 #AI안전성 #생성형AI #챗봇문제 #가짜뉴스 #데이터편향 #AI작업자 #기술의이면 #AI시대 #디지털윤리 #AI교육 #미래기술 #기술불신 #AI과잉 #정보의질 #기술산업 #AI비판 #구글AI #아마존AI #기술발전 #인공지능의미래 #AI진실

Leave a Comment

error: Content is protected !!