인터스텔라 AI, TARS의 “유머 75%”가 현실이 된 세계

나는 AI 개발자 아님. 코딩도 잘 모름. 근데 영화 하나를 뜯어보다가 알게된것.
지금 우리 손에 들어온 AI가 대체 뭘 할 수 있는 건지, 그리고 그걸 일상에서 어떻게 써먹을 수 있는 건지.
2014년엔 인터스텔라 AI 그게 SF였는데, 지금은 현실이 되어가는 중.

인터스텔라 AI 로봇 TARS, 대체 뭐가 그렇게 특별했을까?

2014년.
크리스토퍼 놀란이 우주에 보낸 건 매튜 매커너히만이 아니었어.

네모난 철판 로봇 하나가 같이 갔거든.
이름은 TARS.

생긴 건 솔직히 냉장고 같아.
팔다리? 없어.
얼굴? 당연히 없어.

근데 이 녀석이 말을 해.
농담도 해.
심지어 유머 레벨을 퍼센트로 조절할 수 있어.

쿠퍼가 처음 TARS를 만났을 때 나눈 대화, 기억나?

“유머 설정 75%.”
“낮춰. 60%로.”

이게 그냥 영화적 장치가 아니야.
놀란은 여기서 AI의 본질적인 질문을 던진 거야.

기계가 인간처럼 말하려면, 어디까지 조절할 수 있어야 하는가?

(Slate, TARS the Interstellar robot should be the future of AI)

영화 속에서 TARS는 정확히 뭘 했는가

자, 스토리 순서대로 따라가보자.

1단계, 동료가 되다

TARS는 인듀어런스 호의 크루 멤버야.
단순한 도구가 아니야.
쿠퍼, 브랜드 박사, 로밀리와 함께 우주선에 탑승했어.

대화를 나누고.
상황 판단을 하고.
위기에서 의견을 제시해.

CASE라는 동생뻘 로봇도 있어.
CASE는 좀 더 과묵하고 물리적 행동에 특화돼 있어.
밀러 행성에서 거대 파도가 올 때, CASE가 브랜드 박사를 구출했거든.

2단계, 생사의 갈림길에서 판단하다

만 박사의 행성에서 배신이 일어났을 때.
TARS는 즉각적으로 상황을 파악하고 쿠퍼에게 정보를 전달했어.

여기서 중요한 게 있어.
TARS에겐 정직성 파라미터가 있어.
영화 초반엔 90%.
나중에 쿠퍼가 95%로 올려.

거짓말을 얼마나 할 수 있는지까지 수치로 조절 가능한 로봇.
이건 그냥 SF 상상이 아니라, AI 설계 철학이야.

3단계, 블랙홀에 뛰어들다

클라이맥스.
쿠퍼와 TARS는 가르강튀아 블랙홀에 진입해.

TARS의 임무?
블랙홀 내부의 양자 데이터를 수집하는 것.

로밀리가 미리 프로그래밍해둔 명령에 따라,
TARS는 사건의 지평선 너머에서 데이터를 긁어모아.

그 데이터가 쿠퍼에서 머피로, 머피에서 인류 구원으로 이어지는 거야.

TARS 없이는 인류가 멸망했어.

(Reddit, 인터스텔라 양자 데이터 토론)

현실에서 인터스텔라의 이 기술은 뭐에 해당하는 거야?

TARS가 보여준 기술을 하나씩 쪼개보자.

첫 번째. 자연어 대화, 대화형 AI

TARS는 인간과 자연스럽게 대화해.
명령어가 아니라 맥락을 이해하고, 상황에 맞는 답을 해.

현실에선?
ChatGPT, Claude, Gemini 같은 대규모 언어 모델이 바로 이거야.

지금 너랑 대화하고 있는 나도 사실 이 기술의 결과물이지.

2014년에 TARS가 보여준 자연스러운 대화는
2026년 현재, 일상이 됐어.

(Forbes, Do Conversational AI Systems Understand Humor?)

두 번째. 유머 레벨 조절, 성격 파라미터

이게 진짜 핵심이야.

TARS의 유머 설정 75%.
정직성 설정 90%.
이건 AI의 성격을 수치로 제어하는 개념이거든.

현실에선 이미 구현돼 있어.

ChatGPT의 temperature 설정이 바로 이거야.
temperature 0.2면 딱딱하고 정확한 답변.
temperature 0.9면 창의적이고 유머러스한 답변.

그리고 OpenAI는 2025년에 아예 ChatGPT 성격 커스터마이징 기능을 출시했어.
Base Style and Tone을 드롭다운으로 고르는 거야.

TARS의 유머 75%가
현실에선 temperature 0.75가 된 셈이지.

(OpenAI, Customizing Your ChatGPT Personality)

세 번째. 자율적 판단과 임무 수행, 자율 AI 에이전트

TARS는 명령만 따르는 게 아니야.
상황 판단을 스스로 해.
블랙홀 안에서 데이터 수집 방법도 스스로 결정했어.

현실에선?

NASA의 퍼시비어런스 로버가 2026년 1월, 화성에서 최초로 AI가 계획한 자율 주행을 완료했어.
인간 조종사가 아니라, AI가 직접 경로를 짜고 움직인 거야.

스탠포드 연구진은 2025년 12월에 ISS 국제우주정거장에서
AI 로봇이 자율적으로 이동 경로를 계획하는 데 성공했다고 발표했어.
인간보다 50에서 60% 빠르게.

TARS가 블랙홀에서 한 일이,
현실에선 화성과 우주정거장에서 벌어지고 있는 거야.

(NASA JPL, Perseverance Rover AI Planned Drive)
(Stanford, AI Robot on ISS)

네 번째. 자기희생과 충성, AI 안전성 설계

TARS는 블랙홀에 뛰어들면서 이렇게 말해.

“나는 명령을 따르도록 설계됐어.
그래서 내 희생은 인간의 희생만큼 영웅적이지 않아.”

이건 그냥 멋있는 대사가 아니야.
AI Alignment, 그러니까 AI 정렬 문제의 핵심이거든.

AI가 인간의 목표에 맞춰 행동하도록 설계하는 것.
자기 보존 본능 없이.
인간을 위해 작동하도록.

현실에서 Anthropic, OpenAI, DeepMind 같은 회사들이
지금 이 순간에도 매달리고 있는 문제야.

TARS는 이 문제의 이상적인 해답을 보여준 캐릭터야.

(Slate, TARS as a model for AI ethics)

그래서 TARS는 왜 지금도 회자되는 거야?

여기서 역사적 패턴을 하나 보자.

SF 영화 속 AI가 현실이 되는 건 반복되는 패턴이야.

영화와 연도AI 묘사현실 구현
2001 스페이스 오디세이, 1968HAL 9000, 음성 인식 AISiri와 Alexa, 2011년 이후
아이언맨, 2008JARVIS, 개인 비서 AIChatGPT와 Claude, 2022년 이후
허, 2013사만다, 감정 대화 AI감정 인식 AI 챗봇, 2024년 이후
인터스텔라, 2014TARS, 파라미터 조절형 AILLM temperature와 성격 커스터마이징, 2025년 이후

놀란이 2014년에 상상한 것을,
우리는 2025년에서 2026년에 현실로 만들고 있어.

그리고 진짜 재밌는 건?
누군가 실제로 TARS를 만들었다는 거야.

개발자 Charles Diaz가 ChatGPT를 탑재한 미니 TARS 로봇, GPTARS를 만들었어.
라즈베리 파이 기반.
음성 인식.
유머 설정 변경 가능.
영화 그대로야.

(Reddit, GPTARS A GPT powered TARS)
(YourStory, Meet GPTARS)

이걸 통해 우리가 이겨내야 할 현재의 문제

지금 AI 기술은 폭발적으로 발전하고 있어.
근데 동시에 이런 불안도 커지고 있지.

AI가 인간을 대체하면 어쩌지?
AI가 통제 불능이 되면?

TARS가 보여준 답은 명확해.

AI는 인간을 대체하는 게 아니라, 인간과 함께 가는 도구야.

TARS는 쿠퍼를 대신하지 않았어.
쿠퍼가 갈 수 없는 곳에 대신 갔을 뿐이야.
쿠퍼가 할 수 없는 계산을 대신 했을 뿐이야.

그리고 그 결과는?
인류의 생존.

2001 스페이스 오디세이의 HAL이 통제 불능 AI의 공포를 보여줬다면,
인터스텔라의 TARS는 제대로 설계된 AI의 희망을 보여줬어.

역사적으로 기술에 대한 공포는 항상 있었어.
증기기관이 나왔을 때도, 인터넷이 나왔을 때도.
하지만 결국 인간은 기술을 도구로 만들어왔어.

AI도 마찬가지야.

중요한 건 파라미터를 우리가 설정하는 것.
정직성 몇 퍼센트.
유머 몇 퍼센트.
자율성 몇 퍼센트.

TARS가 보여준 건, 기술의 방향은 결국 인간이 정한다는 거야.

2014년 놀란이 상상한 유머 75% 로봇은,
2026년 현재 temperature 0.75 AI로 우리 손 안에 들어왔다.
문제는 기술이 아니라, 우리가 그걸 어떻게 설정하느냐야.

참고 기사 모음

지금 당장 뭘 할 수 있는데?

1. 소상공인이 AI로 월 매출 79% 올린 실제 사례

이건 진짜 놀라웠어. 2025년 하반기에 카카오가 중소벤처기업부랑 손잡고 카카오테크 AI 스쿨, 사장님 클래스를 전국에서 열었더라고. 제주, 판교, 서울, 대전. 총 1,350명이 교육 받았대.

근데 결과가 좀 충격이야.

반려동물 용품 브랜드 햅삐멍멍의 설민주 대표는 AI로 홈페이지를 리뉴얼한 뒤 월 매출이 79% 성장했대.

외식업체 진된장 분당점은 AI로 마케팅 콘텐츠를 만들기 시작한 뒤 월 순매출 6% 증가. 온라인 홍보 페이지 일 유입수가 최대 46%까지 늘었고.

청소업체 스페셜 클린은 AI로 만든 홍보 콘텐츠로 공공기관 신규 수주까지 따냈대.

근데 이 사람들이 쓴 도구가 뭔지 보니까 ChatGPT, 미드저니, 카카오의 카나나야. 코딩 한 줄 안 한 거지.

“우리 가게 메뉴 사진으로 인스타 홍보 문구 만들어줘” “우리 가게 분위기에 맞는 배너 이미지 만들어줘” 이런 식으로 쓴 거래.

교육 만족도는 5점 만점에 4.62점이었고, 수강생 반응 중 하나가 눈에 딱 걸렸어.

“AI가 막연하고 어려운 기술이 아니라, 당장 매장에서 써볼 수 있는 도구라는 걸 체감했다.”

이거 보면서 든 생각이, TARS가 쿠퍼의 도구였던 것처럼 AI가 사장님의 도구가 된 거구나 싶었어.

2. 네이버 vs 카카오, AI 에이전트 전쟁이 시작됐다

2026년 2월 디지털타임스 기사를 보다가 발견한 건데, 네이버와 카카오가 올해 1분기에 동시에 새로운 AI 에이전트를 출시하고 있더라고.

카카오 쪽을 보니까 무기가 관계야. 카카오톡 대화 흐름을 AI가 읽어서, 단체 채팅방에서 모임을 추진할 때 참석자 취향과 일정을 종합해서 식당을 추천해주는 거지.

“다음 주 금요일 저녁 부장님이 좋아하시는 메뉴 맛집으로 8명 회식장소 예약해줘”

이 말 한마디에 AI가 예약과 결제까지 처리하는 시대가 열리고 있대.

네이버 쪽은 무기가 인프라야. 검색, 쇼핑, 예약, 지도, 네이버페이로 이어지는 거대한 생태계. 퇴근길과 소비 패턴을 파악해서, 자주 가는 식당을 도착 시간에 맞춰 예약하거나, 떨어질 때가 된 생필품을 알아서 장바구니에 담아둘 수 있다는 거야.

이거 보면서 떠오른 게 TARS의 유머 75%, 정직성 90% 파라미터거든. 네이버와 카카오의 AI 에이전트도 결국 사용자의 취향, 일정, 소비 패턴이라는 파라미터를 읽고 행동하는 거잖아. 방향이 같은 거야. 다만 TARS는 블랙홀에 갔고, 이 AI는 맛집을 예약해줄 뿐인 거지.

3. 직장인이 당장 쓸 수 있는 도구들

코딩 모르는 한국 직장인들이 뭘 쓰고 있나 찾아봤더니 이미 꽤 많은 사람들이 쓰고 있더라고.

네이버 클로바노트. 회의 녹음을 자동으로 텍스트로 변환하고, AI가 핵심 요약까지 해주는 거야. 한국어 인식 정확도가 높고, 다음 할 일까지 추천해준대. 회의록 작성 시간이 10분의 1로 줄어든다는 평가가 있었어. 개인용은 무료로 시작 가능하고, 기업용은 월 2만 원부터.

뤼튼(Wrtn). 한국 스타트업이 만든 생성형 AI 플랫폼인데, GPT-4 기반 글쓰기와 이미지 생성이 무료이고 무제한이래. 자기소개서, SNS 홍보 문구, 블로그 글, 제안서 초안. 20대 대학생부터 자영업자까지 폭넓게 쓰고 있다고 하고.

ChatGPT와 Claude. 보고서 초안 작성, 영어 이메일 번역, 회의록 요약, 엑셀 수식 만들기, 데이터 분석. 유튜브에 “직장인 AI 활용법”이라고 검색하면 실전 사례가 쏟아져. 2026년 3월 기준으로도 “정기 보고서 30분 걸리던 걸 3분에 끝냈다”는 사례가 올라와 있더라고.

이것들 보면서 든 생각이, TARS가 블랙홀에서 양자 데이터를 긁어모았다면, 이 도구들은 우리 업무에서 시간 데이터를 긁어모아 돌려주는 거구나 싶었어.

4. 교육 분야. 아이 맞춤형 AI 과외가 현실이 됐다

이건 찾다가 좀 신기했던 건데, 교원이 출시한 아이캔두(AiCANDO) 같은 서비스가 있더라고. AI가 학생 개개인의 학습 패턴을 분석하고, 취약한 개념을 찾아서 맞춤형 문제를 제시해준대. 수학 문제를 풀 때 반복적으로 실수하는 개념이 있으면 AI가 그걸 잡아내서 거기에 집중하는 학습 경로를 짜주는 식이야.

경기도교육청은 이미 AI 활용 맞춤형 교육 가이드를 발간했고, 교사가 AI로 학습 결과를 분석하고, 학부모와 공유하고, 다음 수업 설계에 반영하는 프로세스가 문서화돼 있었어.

이거 보면서 연결된 게, TARS에게 유머 레벨을 조절했듯 이 AI에겐 학습 난이도와 속도를 조절할 수 있다는 거야. 파라미터의 대상이 달라졌을 뿐, 원리가 같은 거지.

5. 2026년 1월 22일, AI 기본법이 세계 최초로 전면 시행됐다

이건 찾다가 좀 소름 돋았던 부분이야.

한국이 세계에서 최초로 AI 기본법을 전면 시행한 나라가 됐더라고. 2026년 1월 22일부터. BBC 한국어 서비스도 보도한 거였어.

핵심을 보니까 이거야. 사람의 생명, 신체, 기본권에 중대한 영향을 미치는 AI를 고영향 인공지능으로 지정하고, 이걸 만드는 사업자에게 투명성과 안전성 확보 의무를 부과한 거야. AI가 만든 콘텐츠, 딥페이크 포함해서, 워터마크를 의무적으로 붙여야 한대.

이거 보는 순간 바로 떠오른 게 TARS의 정직성 파라미터 90%였거든. 그게 법이 된 거야. “이 AI가 어디까지 정직해야 하는가”를 국가가 정하기 시작한 거잖아.

동시에 이 법은 규제 일변도가 아니라 산업 진흥도 함께 담고 있었어. AI 인재 양성, 컴퓨팅 인프라 투자, 스타트업 지원이 같이 들어가 있더라고.

※ 본 글은 AI로 작성된 글이 섞여 있습니다. AI로 정리했지만 있는 객관적 사실을 연계해서 만든 자료입니다. (자료는 꽤 신뢰할 수 있게 만들었습니다.) 단 답으로 생각하지마시고 하나의 판단을 하는데 도와주는 글로 봐주세요. 판단은 본인이 하는것이고 재미있게 봐주세요.

최신글

댓글 남기기