AI를 많이 쓸수록 뇌의 추론 연결성이 최대 55%까지 떨어지고, 본인은 오히려 더 똑똑해졌다고 착각한다는 연구 결과가 나왔다.
가장 취약한 건 17에서 25세 세대인데, 가장 많이 쓰고 있다.
같은 AI라도 “대신 해줘”가 아니라 “내 논리를 반박해줘”로 바꾸면 추론 능력이 오히려 올라간다는 반대 연구도 있다.
뇌파 그래프가 뚝 떨어진 날
2025년 여름, MIT 미디어랩의 한 실험실.
대학생들이 에세이를 쓰고 있었다.
머리에는 EEG 뇌파 측정 장치가 달려 있었다.
한 그룹은 ChatGPT를 쓰고, 한 그룹은 검색 엔진을, 마지막 그룹은 자기 머리만 썼다.
실험이 끝나고 데이터를 펼쳤다.
ChatGPT 그룹의 뇌 신경 연결성이 최대 55%까지 떨어져 있었다.
연구진이 더 놀란 건 그 다음이었다.
AI를 끄고 혼자 쓰게 했는데도, 약해진 뇌 활동이 돌아오지 않았다.
자기가 방금 뭘 썼는지조차 기억하지 못하는 참가자들도 있었다.
이 이야기를 시작으로, 여러 연구와 사건들을 조합해보니 한 가지가 보였다.
지금 인간의 추론 능력이라는 것이, 아무도 모르게 조금씩 빠져나가고 있다는 것.
(MIT Media Lab 보도 / 오마이뉴스 심층 분석)
추론 능력, 세 겹으로 무너지는 구조가 발견됐다
여러 연구를 나란히 놓고 보니, 단순히 “AI를 쓰면 멍해진다”는 차원이 아니었다.
세 겹으로 겹치는 구조가 있었다.
첫 번째 겹. 뇌가 물리적으로 변한다.
MIT 연구만이 아니다.
2026년 2월 Psychology Today에 실린 연구에서는, AI를 이용해 프로그래밍을 배운 그룹이 새로운 기술을 형성하는 능력 자체가 떨어졌다.
근육을 쓰지 않으면 줄어들듯, 추론이라는 뇌의 근육이 사용되지 않으면서 약해지고 있었다.
두 번째 겹. 약해지는 걸 본인이 모른다.
이게 정말 무서운 부분이었다.
2025년 10월 핀란드 알토대학교 연구팀이 발견한 건, AI를 쓰면 더닝-크루거 효과(자기 능력을 과대평가하는 현상)가 역전된다는 것이었다.
보통은 실력이 낮은 사람이 자기를 과대평가한다.
그런데 AI를 쓰면, AI를 잘 아는 사람일수록 오히려 자기 능력을 더 과대평가했다.
AI가 해준 결과를 마치 자기가 한 것처럼 느끼는 것이다.
추론 능력이 빠져나가는데, 본인은 오히려 “나 더 똑똑해졌어”라고 착각한다.
(알토대학교 보도자료 / Futurism 상세 분석 / Live Science 보도)
세 번째 겹. 가장 취약한 세대가 가장 많이 쓴다.
스위스 경영대학원이 666명을 대상으로 조사했더니, 17에서 25세 청년층에서 AI 의존도가 가장 높고 비판적 사고 점수가 가장 낮았다.
뇌가 한창 발달하는 시기에, 추론의 기회가 AI에게 넘어가고 있었다.
UCLA의 인지신경학자 매리언 울프 교수는 “AI 의존은 스스로 사고하는 과정을 줄여 인지력 저하를 야기할 수 있다”고 경고했다.
(지디넷코리아 666명 연구 / 매일경제 매리언 울프 인터뷰 / BBC 코리아 인지 위축 분석)
이 세 겹을 겹치면 이런 그림이 나온다.
추론 능력이 빠져나가고 있는데,
본인은 그걸 모르고,
가장 빠져나가기 쉬운 사람들이 가장 많이 노출되어 있다.
이미 터진 사고들. 추론 능력 없이 AI를 쓰면 벌어지는 일
이론이 아니라 이미 현실에서 일어난 일이다.
2023년 뉴욕의 변호사 스티븐 슈워츠는 ChatGPT가 만들어준 판례를 그대로 법원에 제출했다.
문제는 그 판례 6건이 전부 존재하지 않는 가짜였다는 것이다.
판사가 확인을 요구하자, 변호사는 ChatGPT에게 “이 판례가 진짜냐?”고 다시 물었고, ChatGPT는 “진짜입니다”라고 답했다.
변호사는 5,000달러 벌금을 물었다.
이후 유타, 캘리포니아, 매사추세츠에서도 비슷한 사건이 줄줄이 터졌다.
캘리포니아에서는 변호사가 제출한 인용문 23개 중 21개가 AI가 지어낸 가짜였다.
(The Guardian 유타 사건 / Reuters 뉴욕 사건 원보도 / Calmatters 캘리포니아 역사적 벌금)
의료 분야도 마찬가지였다.
2025년 12월 지디넷코리아 보도에 따르면, AI 의사의 심각한 오류 4건 중 3건이 “진단 누락”이었다.
잘못된 약을 추천하는 것보다, 있어야 할 검사를 빠뜨리는 실수가 훨씬 많았다.
이건 추론이 없으면 잡아낼 수 없는 종류의 오류다.
“이 증상이면 이 검사도 해봐야 하지 않나?”라는 의문은 AI에게서 나오지 않고, 인간의 추론에서 나온다.
(지디넷 AI 의사 오류 분석 / CIO 생성형 AI 대형사고 10선)
NewsGuard의 2025년 9월 보고서는, 주요 AI 챗봇들의 환각(hallucination) 비율이 전년 대비 거의 두 배로 늘었다고 밝혔다.
AI가 더 그럴듯하게 거짓말을 하고 있다는 뜻이다.
이걸 걸러낼 수 있는 건, 인간의 추론 능력뿐이다.
이 흐름 뒤에 있는 돈의 구조
여기서 한 가지 궁금해진다.
이렇게 위험 신호가 나오는데, 왜 AI는 더 빠르게 퍼지고 있을까?
돈의 흐름을 따라가보니 구조가 보였다.
OpenAI는 2025년 7월, 처음으로 월 매출 10억 달러를 돌파했다.
ChatGPT 유료 구독자만 5,000만 명이 넘었고, 주간 활성 사용자는 9억 명에 근접하고 있다.
구글 Gemini 앱의 월간 활성 사용자는 7억 5,000만 명을 넘었다.
이 숫자들은 아직도 가파르게 올라가고 있다.
(SaaStr OpenAI 매출 분석 / Reuters 구글 AI 성장 / 9to5Mac 사용자 통계)
그런데 더 흥미로운 건 교육 시장이었다.
2025년 7월, 미국 백악관은 구글, 마이크로소프트, 메타, 아마존 등 50개 이상 기업과 함께 AI 교육 이니셔티브를 발표했다.
구글이 10억 달러, 마이크로소프트가 1,250만 달러, OpenAI가 1,000만 달러를 학교에 투자한다.
미국교사연맹은 마이크로소프트, OpenAI, Anthropic과 손잡고 40만 명의 교사를 AI로 훈련시키겠다고 했다.
이코노미트리뷴이 전한 업계 관계자의 말이 핵심을 찌른다.
“어린 시절부터 특정 운영체제에 익숙해지면, 성인이 된 후 다른 생태계로 이동하기 쉽지 않다.”
교육 시장은 “가장 긴 소비 곡선을 가진 고객군”이라는 것이다.
즉, 초등학생 때 특정 AI 생태계에 들어오면 수십 년간 빠져나가지 않는다.
여기서 발견한 구조는 이렇다.
위험을 연구하는 곳과 시장을 확대하는 곳이 같은 기업이라는 점이다.
마이크로소프트 연구팀은 “AI가 비판적 사고를 떨어뜨린다”는 논문을 발표하면서, 동시에 마이크로소프트 사업부는 학교에 수천만 달러를 투자하고 있다.
이건 모순인가, 아니면 계산인가.
판단은 각자 하시면 된다.
(마이크로소프트 연구 원문 / 404 Media “인지 위축” 보도)
아무도 말하지 않는 다음 장면. 2026에서 2028 예측
여러 자료를 조합해보니, 아직 대중적으로 이야기되지 않지만 데이터가 가리키는 방향이 몇 가지 있었다.
예측 1. “AI 에이전트 감독자”라는 직업이 생기는데, 감독할 능력이 없는 사람이 대다수일 것이다.
2026년은 “AI 에이전트의 원년”으로 불리고 있다.
구글, 마이크로소프트, OpenAI 모두 AI가 스스로 계획을 세우고 실행하는 “에이전틱 AI”를 밀고 있다.
맥킨지는 2028년까지 인간의 역할이 “직접 실행”에서 “AI 에이전트를 감독”하는 것으로 바뀔 거라고 예측했다.
그런데 감독이란 곧 추론이다.
AI의 출력을 보고 “이게 맞는가? 빠진 건 없는가? 숨겨진 전제는 뭔가?”를 따져야 한다.
추론 능력이 이미 약해진 사람들이 AI를 감독하라는 역할을 맡게 되는 역설이 눈앞에 있다.
(브런치 AI 에이전트 2026 분석 / LinkedIn 맥킨지 예측 / Google 2026 AI 에이전트 트렌드)
예측 2. “추론 가능자”와 “추론 불가능자” 사이에 이전에 없던 종류의 계층이 생길 것이다.
2026년 3월, 한 설문에서 직장인 62%가 “AI 활용 능력에 따라 연봉 격차가 10% 이상 벌어질 것”이라고 답했다.
30% 이상 격차를 예상한 응답도 21.1%나 됐다.
주간경향은 이를 “AI 리터러시에 기반한 새로운 사회 계급의 탄생”이라고 표현했다.
그런데 여기서 핵심을 조합해보면, AI 리터러시의 본질이 결국 추론 능력이라는 점이다.
AI를 잘 쓴다는 건 좋은 질문을 던지고, 결과를 검증하고, 빠진 것을 찾아내는 것이기 때문이다.
(코리아데일리 연봉 격차 설문 / 주간경향 AI 지능 격차 칼럼 / 피렌체의식탁 AI 디바이드)
예측 3. AI 환각은 줄어들기는커녕, 더 정교해질 것이다. 그리고 이것이 가장 위험하다.
환각 비율이 두 배로 늘었다는 건, AI가 점점 더 그럴듯하게 틀린다는 뜻이다.
과거에는 AI의 오류가 티가 났다.
앞으로는 전문가 수준의 추론 능력이 없으면 오류인지 진실인지 구분하기 어려워질 것이다.
노르웨이에서는 한 남성이 자신에 대해 “아들 살인범”이라고 답한 ChatGPT를 명예훼손으로 고소했다.
이런 사건은 시작에 불과할 수 있다.
(Forbes AI 환각 두 배 증가 / 조선일보 노르웨이 명예훼손 소송)
그렇다면, 반대쪽 이야기도 들어봐야 한다
한쪽 이야기만 들으면 추론이 아니다.
반대 증거도 조합해봤다.
2025년 SBS 스위스 경영대학원 실험에서 한 가지 중요한 발견이 있었다.
“그냥 AI를 쓴” 그룹은 인지적 오프로딩이 일어났지만, “구조화된 프롬프팅”을 훈련받은 그룹은 오히려 추론의 질이 올라갔다.
즉, “이거 대신 해줘”가 아니라 “내 논리를 반박해봐”라고 쓰면 결과가 완전히 달라진다.
BBC가 2025년 12월 보도한 하버드 의대 연구도 흥미로웠다.
AI 보조가 일부 의사의 진단 성과를 높였지만, 다른 의사의 성과는 오히려 떨어뜨렸다.
기존에 추론 능력이 강한 사람은 AI를 지렛대로 썼고, 약한 사람은 AI에 끌려갔다.
경향신문 김재인 교수의 칼럼에서 발견한 문장이 이 전체를 관통했다.
“생산성 향상과 지능 퇴화가 같은 사람한테 일어나지 않기 때문에, 심각성이 잘 드러나지 않는다.”
빛이 그늘을 가리고 있다는 것이다.
(경향신문 칼럼)
행동 가이드. 추론 능력을 지키고 키우기 위해 지금 할 수 있는 것들
여러 연구와 사례를 조합해 발견한 패턴들을 바탕으로, 구체적인 행동을 정리했다.
1단계. AI에게 “답”을 구하지 말고, “반론”을 구하라
마이크로소프트와 카네기멜런 연구의 핵심 발견은 단순하다.
AI를 믿을수록 덜 생각하고, 자기 자신을 믿을수록 더 생각한다.
여기서 나오는 행동 원칙이 있다.
AI에게 “정리해줘”, “요약해줘”, “답 알려줘”라고 쓰는 순간, 뇌의 추론 회로가 꺼진다.
대신 이렇게 바꿔보자.
“내 주장의 약점 3개를 찾아줘”
“이 결론이 틀릴 수 있는 조건을 알려줘”
“A와 B 중 하나를 선택해야 한다면, 각각을 반대하는 논거를 만들어줘”
구조화된 프롬프팅 연구에서 이렇게 AI를 쓴 사람들은 추론의 질이 오히려 올라갔다.
같은 도구인데, 쓰는 방식이 뇌에 정반대 효과를 만든다.
2단계. “왜?”를 AI보다 먼저 물어라
추론 능력의 세 축은 귀납, 연역, 유추다.
이 세 가지를 일상에서 의식적으로 쓰는 습관이 핵심이다.
귀납 연습.
뉴스를 볼 때, AI에게 “왜 이런 일이 일어났어?”라고 묻기 전에 자기 가설을 먼저 세워본다.
“이 세 가지 사건에서 공통점이 뭘까?”
30초만 생각해본 뒤에 AI에게 검증을 맡기면, 뇌가 완전히 다르게 작동한다.
연역 연습.
“만약 A라면, B여야 한다”를 먼저 만들어본다.
예를 들어 “이 회사가 진짜 수익이 나고 있다면, 직원을 줄이진 않을 것이다.”
그 다음 데이터를 확인한다.
이것만으로도 AI의 출력을 검증하는 힘이 생긴다.
유추 연습.
“이거랑 비슷한 과거 사례가 뭐가 있을까?”를 습관적으로 던진다.
AI 교육 시장을 볼 때, “1990년대 마이크로소프트가 학교에 Windows를 깔아준 것과 뭐가 다를까?”를 떠올리는 것이 유추다.
3단계. AI의 출력에 “빠진 것”을 찾는 습관을 들여라
법원에 가짜 판례를 낸 변호사들의 공통점은 하나다.
AI가 내놓은 걸 그대로 받아들였다는 것.
AI 의사의 가장 흔한 오류가 “진단 누락”이라는 것도 같은 맥락이다.
AI는 있는 것을 정리하는 데 탁월하지만, 없는 것을 찾아내는 데 취약하다.
“여기에 빠진 게 뭐가 있을까?”를 묻는 능력이 바로 추론이고, 이것은 아직 인간만이 잘할 수 있는 영역이다.
구체적으로, AI가 답을 주면 바로 받아들이기 전에 이 질문을 던져보자.
“이 분석에서 빠진 관점이 있을까?”
“이 결론의 전제가 뭐지? 그 전제가 틀리면?”
“반대편에서 보면 어떻게 읽힐까?”
4단계. 하루에 한 번, “AI 없이 생각하는 시간”을 만들어라
MIT 연구에서 가장 무서웠던 부분은, AI를 끈 뒤에도 뇌 활동이 회복되지 않았다는 것이다.
그러나 이것이 영구적인지 일시적인지는 아직 확정되지 않았다.
오히려 의도적인 추론 훈련으로 회복할 수 있다는 가능성도 열려 있다.
하루 15분에서 30분, AI 도구 없이 무언가를 분석하거나 글을 쓰거나 문제를 풀어보는 시간을 확보하는 것.
이것은 체육관에 가서 근육을 쓰는 것과 같은 원리다.
뇌의 추론 근육도 쓰지 않으면 줄어들고, 쓰면 유지된다.
5단계. “나는 AI 때문에 더 똑똑해졌다”는 느낌을 의심하라
알토대학교 연구가 발견한 “역전된 더닝-크루거 효과”를 기억해야 한다.
AI를 많이 쓸수록 자기 능력을 과대평가하게 된다.
“요즘 일 잘되는데?”라는 느낌이 실은 AI가 해준 것이고, 정작 자기 추론 능력은 줄어들고 있을 수 있다.
확인 방법은 간단하다.
AI 없이 같은 작업을 해보는 것이다.
차이가 극단적이라면, 그것은 “AI 활용 능력”이 아니라 “AI 의존”일 가능성이 있다.
이 글을 처음부터 여기까지 읽는 동안, 당신의 뇌는 여러 가지를 했다.
흩어진 연구들 사이에서 패턴을 찾았고(귀납),
“이게 맞다면 저건 어떻게 되는 거지?”를 따졌으며(연역),
“과거에 비슷한 일이 있었는데”를 떠올렸을 것이다(유추).
그게 추론이다.
그리고 그걸 AI 대신 당신이 직접 했다는 사실이, 이 글이 전하고 싶은 전부다.