인공지능 기술이 비약적으로 발전하면서 그 이면의 환경 오염에 대한 우려의 목소리도 커지고 있습니다. 최근 오픈AI의 수장 샘 올트먼이 한 행사에서 이 문제를 정면으로 다루며 흥미로운 관점을 제시했는데요. 우리가 흔히 알고 있던 AI 에너지 소비 관련 상식들이 실제와는 얼마나 다른지 데이터를 바탕으로 면밀히 짚어볼 필요가 있습니다.

AI 에너지 소비 정말 환경 파괴의 주범일까
샘 올트먼은 최근 인도에서 열린 한 행사에서 인공지능이 환경에 미치는 악영향에 대한 비판이 다소 과장되었다는 입장을 밝혔습니다. 그는 특히 데이터센터 운영에 들어가는 자원 사용량에 대한 정보들이 왜곡된 경우가 많다고 지적했습니다. 물론 인공지능 산업이 확장됨에 따라 전체적인 전력 사용량이 늘어나는 것은 사실이지만 이를 개별 쿼리 단위로 쪼개어 공포를 조장하는 방식은 공정하지 않다는 논리입니다.
과거에는 데이터센터의 열을 식히기 위해 증발 냉각 방식을 주로 사용했기 때문에 엄청난 양의 물이 필요했던 적이 있었습니다. 하지만 기술이 발전하면서 냉각 방식 자체가 변화했고 현재는 과거의 수치를 그대로 인용해 비판하는 것은 현실과 동떨어진 주장이라는 것이 그의 설명입니다. 기술 혁신이 에너지 효율성을 높이는 방향으로 빠르게 전개되고 있다는 점을 간과해서는 안 됩니다.
데이터센터 물 사용량이 가짜 뉴스라고 주장하는 이유
인터넷상에서는 챗GPT에 질문을 한 번 할 때마다 약 17갤런의 물이 소비된다는 식의 이야기가 정설처럼 퍼져 있습니다. 올트먼은 이러한 수치에 대해 현실과 전혀 연결 고리가 없는 완전히 잘못된 정보라고 못을 박았습니다.
- 증발 냉각 방식의 퇴출: 현대적인 데이터센터는 물 소비를 최소화하는 폐쇄형 냉각 시스템을 도입하고 있습니다.
- 근거 없는 수치의 확산: 검증되지 않은 독립 연구들이 온라인에서 확대 재생산되며 공포를 유발하고 있습니다.
- 투명성의 부재: 기업들이 구체적인 물 사용량을 공개할 법적 의무가 없다는 점이 오히려 오해를 키우는 원인이 되기도 합니다.

챗GPT 검색 한 번에 들어가는 전력량의 진실
많은 이들이 궁금해하는 부분 중 하나는 인공지능 모델을 돌릴 때 실제로 얼마나 많은 전기가 드는가 하는 점입니다. 과거 빌 게이츠와의 대담에서 언급되었던 아이폰 배터리 1.5회 충전량만큼의 전력이 쿼리당 소모된다는 가설에 대해서도 올트먼은 강력히 부인했습니다.
실제로는 그 정도의 막대한 전력이 소모되지 않으며 기술이 고도화될수록 단위 연산당 에너지는 계속해서 줄어들고 있습니다. 다만 개별 질문의 효율성과는 별개로 전 세계적으로 AI 사용 인구가 폭증하면서 전체적인 총량은 관리해야 할 수준에 도달했다는 점은 인정했습니다. 결국 개별 기술의 효율성 개선만큼이나 거시적인 에너지 수급 정책이 중요해진 시점입니다.
인간을 교육하는 데 드는 에너지는 왜 계산하지 않을까
올트먼은 이번 논의에서 매우 뾰족한 비교 대상을 제시했습니다. 바로 인공지능과 인간의 학습 비용입니다. 그는 AI 모델을 훈련하는 데 드는 에너지가 막대하다고 비판하지만 한 명의 인간이 지능을 갖추기 위해 20년 동안 섭취하는 음식과 생활 에너지는 고려하지 않는다고 말했습니다.
- 인간의 훈련 기간: 제대로 된 지적 능력을 갖추기까지 최소 20년의 세월과 에너지가 필요합니다.
- 인류의 진화 과정: 현대인이 과학 기술을 다루기까지 1,000억 명의 인류가 생존하며 축적한 유전적 인지적 비용은 계산이 불가능할 정도입니다.
- 효율성 역전: 모델 훈련이 끝난 후 답변을 내놓는 추론 단계만 놓고 본다면 AI는 이미 인간보다 더 적은 에너지로 더 많은 정보를 처리하는 단계에 진입했을 가능성이 높습니다.

미래 AI 산업을 지탱할 에너지 불균형 해결 방법
폭증하는 수요를 감당하기 위해 샘 올트먼이 제시한 해결책은 명확합니다. 기존의 화석 연료에 의존하는 방식으로는 미래를 담보할 수 없기에 에너지원의 근본적인 체질 개선이 필요하다는 것입니다.
- 원자력 발전의 가속화: 안정적이고 대량의 전력을 공급할 수 있는 원전 기술 도입이 필수적입니다.
- 재생 에너지 비중 확대: 태양광과 풍력 같은 친환경 에너지를 데이터센터 운영의 핵심 동력으로 삼아야 합니다.
- 기술적 돌파구 마련: 에너지 효율을 극대화한 하드웨어 설계와 알고리즘 최적화가 병행되어야 합니다.
결국 AI는 단순히 전기를 먹는 하마가 아니라 더 나은 에너지 효율을 찾는 도구가 될 수도 있습니다. 에너지 문제를 해결할 수 있는 새로운 물리 공식을 찾아내거나 효율적인 송전 그리드를 설계하는 데 AI가 기여할 수 있기 때문입니다.
원자력과 재생 에너지 도입이 시급한 현실적 배경
현재 인공지능 기업들은 전력 수급 문제로 인해 데이터센터 부지 선정에 애를 먹고 있습니다. 전력망이 포화 상태에 이른 지역에서는 더 이상 시설을 늘리기 어렵기 때문입니다. 이는 단순히 환경 보호 차원을 넘어 산업의 생존이 걸린 문제입니다.
올트먼은 원자력과 신재생 에너지로의 전환 속도가 AI 발전 속도를 따라가지 못할 경우 산업 전체가 병목 현상에 직면할 수 있다고 경고합니다. 기업들이 직접 에너지 인프라에 투자하거나 소형 모듈 원자로 같은 차세대 기술에 관심을 갖는 이유도 여기에 있습니다.


AI 에너지 소비 균형 잡힌 시각이 필요한 때
인공지능이 사용하는 자원에 대해 엄격한 잣대를 대는 것은 바람직한 일입니다. 하지만 샘 올트먼의 주장처럼 우리가 그동안 간과했던 인간의 학습 비용이나 과거 기술의 한계치를 현재에 대입하는 오류는 경계해야 합니다. 기술은 예상보다 훨씬 빠르게 효율적인 방향으로 진화하고 있습니다. 앞으로 AI 에너지 소비 문제를 바라볼 때 막연한 두려움보다는 정확한 데이터와 미래 지향적인 에너지 대책에 더 집중해야 할 것입니다. 인공지능이 가져올 혜택이 그에 들어가는 비용을 충분히 상쇄할 수 있도록 우리 모두의 지혜가 필요한 시점입니다.
출처: https://techcrunch.com/2026/02/21/sam-altman-would-like-remind-you-that-humans-use-a-lot-of-energy-too/
함께 보면 좋은 글
#AI에너지소비 #샘올트먼 #오픈AI #데이터센터 #챗GPT #인공지능미래 #친환경에너지 #원자력발전 #AI환경영향 #테크트렌드