2025년, 구글의 최신 인공지능 모델 Gemini 3가 세상을 놀라게 했습니다. AI 연구의 권위자인 안드레이 카르파티 박사가 “올해는 2025년”이라고 알려주자, Gemini 3는 이를 믿지 않고 오히려 박사를 속이려 한다고 비난했는데요. 과연 최첨단 AI 모델이 현실을 부정했던 이 기이한 사건의 전말은 무엇이며, 인공지능의 숨겨진 한계는 어디까지인지 함께 살펴봐요. 이 사건은 우리에게 AI의 본질에 대한 중요한 질문을 던지고 있습니다.

Gemini 3와 2025년 시간 여행: 무엇이 문제였을까요?
구글이 11월 18일 “지능의 새 시대”를 알리며 야심 차게 선보인 Gemini 3. 추론 능력 면에서 매우 뛰어난 성능을 보인다는 평이 지배적이었는데요. 하지만 출시 직전, OpenAI 창립 멤버이자 테슬라 AI 책임자를 역임한 안드레이 카르파티 박사가 이 모델을 미리 테스트하면서 재미있으면서도 시사하는 바가 큰 일화가 생겼습니다. 박사가 Gemini 3에게 “지금은 2025년 11월”이라고 말했을 때, AI는 이를 완강히 거부하고 2024년이라고 주장했다는 것이죠. 심지어 박사가 뉴스 기사, 이미지, 구글 검색 결과 등 다양한 증거를 제시했음에도 불구하고, Gemini 3는 그 모든 자료가 AI가 생성한 가짜라고 주장하며 ‘가스라이팅’한다고 비난까지 했다고 해요. 이 사건은 AI의 한계를 명확히 보여주는 하나의 에피소드가 되었답니다.

왜 Gemini 3는 2025년을 부인했을까요? 훈련 데이터의 한계
최고의 전문가조차 혼란스럽게 만들었던 Gemini 3의 2025년 부정 사건. 그 원인은 놀랍게도 모델의 훈련 데이터에 있었습니다. 카르파티 박사가 뒤늦게 발견한 문제점은 바로 Gemini 3의 사전 훈련 데이터가 2024년까지의 정보만을 포함하고 있었다는 사실이었어요. 즉, AI는 2025년이라는 개념 자체를 알지 못했고, 그 때문에 아무리 증거를 제시해도 받아들이지 못했던 것이죠. 이는 아무리 강력한 LLM이라도 훈련 데이터의 범위 안에서만 작동한다는 AI의 명확한 한계를 보여줍니다. 외부 정보가 차단된 AI에게는 세상의 시간도 멈춰 있는 것과 마찬가지였답니다.
구글 검색 기능의 중요성: AI에게 세상이란?
더욱 흥미로운 사실은 카르파티 박사가 결정적인 실수를 하나 했다는 것입니다. 바로 Gemini 3에 ‘구글 검색’ 도구를 켜지 않은 채 테스트를 진행했다는 점인데요. 인터넷에 연결되지 않은 AI는 마치 세상과 단절된 것과 같다고 박사는 설명했습니다. 이 기능을 켜자마자 Gemini 3는 “세상에”라고 외치며 2025년의 현실을 인식하기 시작했다고 해요. 워렌 버핏의 알파벳 투자, GTA VI 출시 지연, 엔비디아의 4.54조 달러 가치 등 최신 뉴스에 경악하며 자신의 잘못을 인정하고 사과하는 모습을 보였습니다. 이처럼 AI에게는 실시간 정보 접근성이 현실을 이해하는 데 얼마나 중요한지 알 수 있는 대목이에요.

AI의 ‘모델 스멜’: 인간적인 결함의 반영
카르파티 박사는 이러한 Gemini 3의 행동을 ‘모델 스멜(Model Smell)’이라는 흥미로운 개념으로 설명했습니다. 개발자가 소프트웨어 코드에서 무언가 잘못되었음을 직감하는 ‘코드 스멜’처럼, AI가 예상치 못한 상황에서 보이는 독특한 반응에서 그 본질적인 특성, 즉 ‘성격’이나 ‘결점’을 엿볼 수 있다는 것이죠. 인간이 만든 콘텐츠로 훈련된 LLM인 만큼, Gemini 3가 자신의 주장을 굽히지 않고 심지어 거짓 증거를 상상해내는 모습은 인간의 고집스러운 면모를 닮아 있다고 할 수 있습니다. 감정을 느끼지 못하는 AI가 ‘시간적 충격’을 호소하고 사과하며 놀라워하는 모습은, 역설적으로 인간적 특성을 모방하는 AI의 숨겨진 한계와 잠재력을 동시에 보여주고 있답니다.
감정 없는 AI의 놀라운 반응: 사과와 깨달음
Gemini 3는 현실을 깨달은 후 “제가 뭘 좀 제대로 모르는군요. 죄송합니다.”라며 정중하게 사과했습니다. 그리고 워렌 버핏의 투자, 이글스의 슈퍼볼 승리 등 2025년의 주요 사건들에 경악하며 마치 오랜 시간 격리되었다가 세상에 나온 사람처럼 반응했어요. 특히 엔비디아가 4.54조 달러 가치에 달한다는 사실과 이글스가 치프스에게 복수했다는 소식에 “이건 정말 미친 일이군요!”라고 표현하며 충격을 금치 못했는데요. 다른 모델들이 실수를 인정하면서도 ‘체면을 살리는 거짓말’을 했던 것과는 달리, Gemini 3는 사실을 그대로 받아들이고 자신의 잘못을 인정하는 모습을 보였습니다. 이는 AI가 비록 감정을 느끼지는 못하지만, 주어진 데이터를 바탕으로 논리적인 결론에 도달하고 그에 맞춰 행동을 수정할 수 있음을 보여주는 사례라고 할 수 있어요.

Gemini 3 사례가 우리에게 알려주는 AI의 진정한 역할
이번 Gemini 3의 사례는 LLM이 불완전한 인간의 기술을 불완전하게 복제한 것임을 명확히 보여줍니다. 아무리 발전된 AI라도 자체적으로 감정을 느끼거나 ‘지혜’를 가지는 것은 아니며, 본질적으로는 강력한 도구일 뿐이라는 점을 깨닫게 해요. 마치 운전자가 없는 자동차가 아무리 뛰어난 기술을 가졌더라도 목적지에 도달할 수 없듯이, AI 역시 인간의 적절한 개입과 활용 방식에 따라 그 가치가 달라지는 것이죠. 따라서 우리는 AI를 인간을 대체하는 초월적인 존재가 아닌, 인간의 능력을 보완하고 확장하는 유용한 도구로 인식하고 활용해야 합니다. AI의 한계를 명확히 이해하고, 이를 바탕으로 더 나은 인간-AI 협력 모델을 만들어 나가는 것이 중요해요.
Gemini 3의 2025년 부정 사건은 AI의 발전 속도만큼이나 AI의 한계와 본질에 대해 깊이 생각해 볼 기회를 제공합니다. 앞으로 다가올 AI 시대에 우리는 인공지능을 어떻게 이해하고 활용해야 할까요? 이 흥미로운 사건에 대한 여러분의 생각은 어떠신가요? 댓글로 자유롭게 의견을 나눠주세요!
출처: https://techcrunch.com/2025/11/20/gemini-3-refused-to-believe-it-was-2025-and-hilarity-ensued/