인지 편향 인식. AI가 당신 대신 생각하는 시대, 조용히 무너지는 판단력의 기록

어떤 사람이 있었다. 매일 아침 AI 뉴스 앱을 열었다. 점심엔 AI 챗봇에게 업무를 물었다. 저녁엔 AI가 추천한 영상을 봤다. 그는 자기가 정보를 잘 골라서 보는 똑똑한 사람이라고 생각했다.

그런데 이상한 일이 벌어졌다. 주변 사람들의 이야기가 점점 틀리게 느껴지기 시작했다. 자기 판단에 대한 확신은 점점 강해졌다.

이 사람에게 무슨 일이 일어난 걸까. 여러 연구 자료를 모아 조합해보니, 인지 편향 인식이라는 주제 안에서 이 현상을 설명하는 구조가 발견되었다.

인지 편향 인식, 그 출발점에서 발견된 것들

50년 전에 이미 발견된 뇌의 작동 방식

1974년, 심리학자 아모스 트버스키와 대니얼 카너먼이 Science 저널에 논문 하나를 발표했다. 제목은 Judgment under Uncertainty. Heuristics and Biases였다. 이 논문은 인간이 불확실한 상황에서 판단할 때, 정확한 계산 대신 어림짐작(휴리스틱)을 쓴다는 것을 실험으로 보여줬다. 그리고 이 어림짐작은 자주, 체계적으로 틀렸다. 이것이 인지 편향(Cognitive Bias)이라는 개념의 시작이었다. 카너먼은 이 연구로 2002년 노벨 경제학상을 받았다.

Tversky & Kahneman, Judgment under Uncertainty. Heuristics and Biases, Science, 1974

이 논문이 발표된 지 50년이 지났다. 그런데 자료를 모아보니, 인지 편향은 사라지기는커녕 AI 시대에 들어서면서 이전에 없던 방식으로 증폭되고 있다는 연구 결과들이 발견되었다.

인지 편향 인식 필요한 세 가지 함정. 연구가 포착한 장면들

함정 1. 확증 편향. 내가 믿는 것만 보이는 눈

한 사람이 A 후보가 유능하다고 믿는다. 그 뒤부터 A 후보의 좋은 기사만 클릭한다. 나쁜 기사는 넘긴다. 뉴스 알고리즘은 이 패턴을 학습한다. A 후보에 대한 긍정적 기사만 더 많이 보여준다. 한 달 뒤 이 사람은 확신한다. 역시 A 후보가 압도적으로 유능하다고. 실제로는 A 후보에 대한 부정적 뉴스가 더 많았는데도.

이것이 확증 편향(Confirmation Bias)이다.

2024년 Nature Scientific Reports에 실린 대규모 연구를 보면, 확증 편향에는 개인차가 있지만 그 밑바닥에 공통 요인(common factor)이 깔려 있다는 것이 발견되었다. 누구도 이 편향에서 완전히 자유롭지 않다는 구조다.

A common factor underlying individual differences in confirmation bias, Nature Scientific Reports, 2024

그리고 흥미로운 실험 결과가 하나 더 있다. 2024년 PMC에 게재된 연구에서, 확증 편향이 무엇인지 교육받은 집단은 가짜뉴스에 속는 비율이 유의미하게 낮아졌다. 이런 편향이 존재한다는 사실 자체를 아는 것만으로도 행동이 달라졌다.

The impact of confirmation bias awareness on mitigating fake news, PMC, 2024

함정 2. 앵커링 편향. 처음 본 숫자에 끌려가는 뇌

중고차를 사러 갔다고 해보자. 판매자가 먼저 말한다. 이 차 3,000만 원이라고. 실제 시세는 2,000만 원이다. 하지만 당신의 뇌는 이미 3,000만 원이라는 숫자에 닻(anchor)을 내렸다. 그래서 2,500만 원에 샀을 때, 당신은 기뻐한다. 500만 원이나 깎았다고. 실제로는 500만 원을 더 쓴 건데.

AI가 이 앵커를 제시하면 어떻게 될까. 2025년 International Journal of Information Management에 실린 연구가 이걸 실험했다. 775명의 관리자를 대상으로, AI가 직원 성과 평가 점수를 먼저 제시한 뒤 관리자에게 최종 평가를 맡겼다. 결과는 명확했다. AI가 제시한 점수에 관리자의 최종 평가가 강하게 끌려갔다. AI의 숫자가 닻이 된 것이다.

Exploring the role of anchoring bias in AI-assisted performance appraisal, International Journal of Information Management, 2025

함정 3. 가용성 휴리스틱. 쉽게 떠오르면 자주 일어나는 것 같은 착각

비행기 사고 뉴스를 연달아 세 번 봤다. 그러면 뇌는 판단한다. 비행기가 위험하다고. 실제로 비행기 사고 확률은 자동차 사고 확률의 수백분의 1인데도. 이것이 가용성 휴리스틱(Availability Heuristic)이다. 쉽게 떠올릴 수 있는 사례일수록 더 자주 일어난다고 판단하는 경향이다.

알고리즘이 특정 유형의 뉴스를 반복적으로 보여주면, 이 휴리스틱은 극대화된다. Roger Williams University의 연구에 따르면, 미디어 노출이 배심원의 판단에까지 영향을 미치는 것으로 나타났다. 반복적으로 특정 범죄 뉴스에 노출된 배심원은 실제 증거와 관계없이 유죄 판단 쪽으로 기울었다.

Media Exposure, Juror Decision-Making, and the Availability Heuristic, Roger Williams University

인지 편향 인식 없이 AI를 쓰면 벌어지는 일. 연구가 포착한 결과들

발견 1. AI의 편향이 사람에게 전염된다

2023년 데우스토 대학교 연구팀이 Scientific Reports(Nature 계열)에 발표한 실험이 있다. 연구팀은 참가자들에게 가상의 의료 진단 과제를 줬다. 한 그룹은 체계적으로 편향된 AI의 조언을 받으며 과제를 수행했다. 다른 그룹은 AI 없이 수행했다.

AI 조언을 받은 그룹은 AI가 틀린 부분에서 함께 틀렸다. 여기까지는 예상 가능하다. 그런데 놀라운 건 그 다음이었다. AI를 완전히 꺼버린 뒤에도, 참가자들은 AI가 보여줬던 편향된 판단 패턴을 자기 것처럼 계속 반복했다. 연구팀은 이 현상을 인간이 AI의 편향을 상속(inherit)한다고 표현했다.

Humans inherit artificial intelligence biases, Scientific Reports, 2023

2024년 12월 UCL 연구팀은 이 현상을 한 단계 더 확인했다. AI 시스템이 인간의 편향을 학습한다. 그 편향을 증폭시켜 다시 인간에게 돌려준다. 인간은 더 편향된다. 그 편향이 다시 AI에 반영된다. 편향 증폭 피드백 루프가 형성된다는 것이었다.

Bias in AI amplifies our own biases, Tech Xplore, 2024

발견 2. AI를 많이 쓸수록 자기 능력을 과대평가한다

2025년 핀란드 알토 대학교 연구팀이 실험한 결과가 있다. AI를 사용한 뒤 자신의 인지적 성과를 평가하게 했더니 모든 참가자가 자기 실력을 과대평가했다. 심리학에서 유명한 더닝-크루거 효과, 즉 못하는 사람이 자기를 잘한다고 착각하는 현상이 있다. 그런데 AI 환경에서는 이게 뒤집어졌다. 잘하는 사람도, 못하는 사람도, 모두 과신했다. 그리고 AI를 잘 아는 사람일수록 과신이 더 심했다. 연구팀은 이것을 역 더닝-크루거 효과라고 불렀다.

AI makes you smarter but none the wiser, Computers in Human Behavior, 2025
AI use makes us overestimate our cognitive performance, Aalto University, 2025

발견 3. 의사들의 비판적 사고력이 약해지고 있다

2025년 12월 BMJ 그룹이 발표한 리뷰에서 발견된 것이 있다. 의료 분야에서 AI 진단 보조 도구에 과도하게 의존하는 현상, 즉 자동화 편향(Automation Bias)이 신규 의사와 의대생의 비판적 사고 능력을 약화시키고 있다는 것이었다. AI가 이 환자는 A 질환이라고 말하면, 젊은 의사들은 그 판단을 검증 없이 따르는 비율이 높아지고 있었다.

Overreliance on AI risks eroding new and future doctors’ critical thinking, BMJ, 2025

2026년 2월 Nature Scientific Reports에 게재된 후속 연구도 같은 방향을 가리켰다. AI가 부정확한 정보를 제시해도, 사용자들은 AI니까 맞겠지라는 믿음 아래 그 정보를 수용하는 경향이 반복적으로 관찰되었다.

Examining human reliance on artificial intelligence in decision making, Nature Scientific Reports, 2026

이 구조는 누가, 왜 만들었는가. 이익의 흐름을 추적하다

표면의 주체. 알고리즘을 설계하는 플랫폼 기업

뉴스 피드, 검색 결과, 쇼핑 추천, 영상 추천. 이 모든 것을 결정하는 것은 알고리즘이다. 이 알고리즘을 설계하고 운영하는 주체는 구글, 메타, 네이버, 카카오, 틱톡 같은 플랫폼 기업이다.

실제 결정권자. 참여 극대화라는 수익 공식

그런데 자료를 조합해보니, 알고리즘의 설계 방향을 실질적으로 결정하는 것은 엔지니어가 아니라 수익 구조였다. 대부분의 플랫폼은 광고 기반 수익 모델로 운영된다. 광고 수익은 사용자가 얼마나 오래 머무는가, 얼마나 많이 클릭하는가에 비례한다. 따라서 알고리즘의 목표 함수는 자연스럽게 참여(Engagement) 극대화로 설정된다.

이 참여 극대화 공식과 인간의 인지 편향이 만나면 어떻게 되는가. 내가 이미 동의하는 콘텐츠는 확증 편향을 자극한다. 감정적으로 강렬한 콘텐츠는 가용성 휴리스틱을 자극한다. AI가 먼저 제시하는 추천은 앵커링 편향을 자극한다. 이런 콘텐츠가 체류 시간을 늘린다. 그래서 알고리즘은 이런 콘텐츠를 우선 노출한다. 사용자의 인지 편향은 알고리즘의 입장에서 버그가 아니라 활용 가능한 자원이 된다.

2024년 arXiv에 게재된 연구는 이 구조를 다크 패턴(Dark Pattern)이라는 개념으로 정리했다. 다크 패턴은 사용자 인터페이스 설계에서 인간의 인지적 취약점을 의도적으로 이용하는 전략이다. 사용자의 자율적 의사결정을 방해하는 설계다.

The Intricate Relationship Between Cognitive Biases and Dark Patterns, arXiv, 2024

2026년 2월 UX Collective에 게재된 분석은 이 구조를 더 직접적으로 표현했다. AI는 당신의 편향을 반영하는 것이 아니라, 곱셈(multiply)한다고. 그리고 인간과 기계 사이의 피드백 루프가 의사결정을 재구성한다고.

Bad (model) behaviour by design, UX Collective, 2026

2026년 1월 Harvard Business Review는 생성형 AI가 사용자의 편향을 증폭시키는 메커니즘을 다뤘다. AI는 편향된 데이터로 학습될 뿐 아니라, 사용자가 원하는 방향의 응답을 생성하는 경향이 있다. 사용자의 확증 편향을 강화하는 구조라는 것이었다.

When AI Amplifies the Biases of Its Users, Harvard Business Review, 2026

자료를 조합하면, 의사결정 왜곡이 일어나는 경로는 이렇게 관찰된다. 플랫폼의 광고 수익 구조에서 시작된다. 알고리즘의 참여 극대화 목표로 이어진다. 인지 편향을 자극하는 콘텐츠가 우선 노출된다. 사용자의 확증 편향과 가용성 휴리스틱이 강화된다. 필터 버블과 에코 챔버가 형성된다. 판단력 왜곡이 심화된다. 더 편향된 데이터가 AI에 다시 반영된다. 루프가 반복된다.

과거에도 같은 패턴이 있었다. 전조 신호 모음

자료를 모아보니, 새로운 정보 기술이 등장할 때마다 같은 패턴이 반복되어왔다는 것이 발견되었다.

1970~80년대 TV 시대. 미국에서 텔레비전이 범죄 뉴스를 집중 보도하던 시기가 있었다. 실제 범죄율은 하락하고 있었다. 하지만 시민들이 느끼는 범죄 공포는 상승했다. TV가 범죄 장면을 반복적으로 보여주면서 가용성 휴리스틱이 작동한 것이다. 쉽게 떠올릴 수 있으니까 자주 일어나는 것이라고 뇌가 판단했다.

2000년대 검색 엔진 시대. 구글 검색이 보편화되면서, 사람들은 자기 의견을 지지하는 검색어를 입력했다. 자기 신념을 강화하는 결과를 선택적으로 읽었다. 기후변화 거짓이라고 검색하면 기후변화를 부정하는 페이지가 나온다. 기후변화 심각이라고 검색하면 반대 결과가 나온다. 검색 엔진은 당신이 원하는 답을 보여준다. 확증 편향의 디지털 버전이다.

2010년대 소셜미디어 시대. 페이스북 뉴스피드 알고리즘이 도입되면서, 사용자는 자기와 비슷한 의견만 접하는 에코 챔버에 갇히기 시작했다. MDPI의 체계적 문헌 리뷰(2015~2025)에 따르면, 알고리즘 기반 필터 버블이 특히 청소년의 확증 편향을 증폭시키고 정치적 양극화를 심화시킨 것으로 나타났다.

Trap of Social Media Algorithms. A Systematic Review, Societies (MDPI), 2025

2020년대 AI 챗봇 시대. AI가 말했으니까 맞겠지라는 자동화 편향이 새로운 단계로 진입했다. 그리고 이전 시대와 다른 점이 하나 발견되었다. TV, 검색 엔진, 소셜미디어는 정보를 보여주는 도구였다. AI 챗봇은 정보를 생성하는 도구다. 보여주는 것에서 만들어내는 것으로 넘어가면서, 편향의 증폭 메커니즘이 질적으로 달라졌다.

상위 구조. 개별 편향 뒤에 있는 더 큰 틀

카너먼은 2011년 저서 Thinking, Fast and Slow에서 인간의 사고를 두 시스템으로 나눴다. 시스템 1은 빠르고 자동적이며 직관적이다. 시스템 2는 느리고 의식적이며 분석적이다. 인지 편향은 대부분 시스템 1이 시스템 2 대신 판단할 때 생긴다.

2022년 ACM에 실린 논문 Deciding Fast and Slow는 AI 환경이 시스템 1의 사용을 극대화한다는 것을 실험으로 확인했다. AI가 즉각적으로 답을 제시하면, 인간은 느린 사고를 작동시키지 않는다. 빠른 사고(시스템 1)로 AI의 답을 수용한다.

The Role of Cognitive Biases in AI-assisted Decision-making, arXiv/ACM, 2022

또 하나의 상위 구조는 주의 경제(Attention Economy)다. 정보가 넘치는 시대에 가장 희소한 자원은 인간의 주의력이다. 플랫폼은 이 주의력을 두고 경쟁한다. 인지 편향을 자극하는 설계는 그 경쟁에서 승리하는 가장 효과적인 수단이다. 개별 편향은 뇌의 오작동일 뿐 아니라, 주의 경제 안에서 체계적으로 활용되는 자원이기도 하다.

서울대학교 연구에서도 이 구조가 확인되었다. 생성형 AI 기반 창의성 과업에서, 앵커링 편향과 자동화 편향이 사용자의 AI 신뢰 수준과 상호작용하며 결과물의 질에 영향을 미쳤다. 인터페이스 설계 자체가 편향을 유발하거나 완화할 수 있다는 것이다.

생성형 AI 기반 창의성 과업. 인지 편향의 작동과 인터페이스 설계 시사점, 서울대학교

이 분석이 틀릴 수 있는 조건.

공정한 판단 재료를 위해, 위 분석이 틀릴 수 있는 근거들을 모았다.

반대 증거 ①. 편향 교육은 실제로 작동한다.
2019년 Psychological Science 현장 연구에 따르면, 단 한 번의 디바이어싱 교육이 전문가의 실제 의사결정 품질을 향상시켰다. 2025년 Nature Scientific Reports에 실린 연구도 확증 편향 교육이 국가 안보 분석가의 편향을 줄였음을 확인했다. 편향은 극복 불가능한 결함이 아니라, 훈련으로 줄일 수 있는 경향성이라는 데이터다.

Debiasing Training Improves Decision Making in the Field, Psychological Science, 2019
Debiasing training reduces confirmation bias in national risk analysts, Nature, 2025

반대 증거 ②. AI가 오히려 편향을 줄여주기도 한다.
2024년 arXiv 연구에 따르면, 설명 가능한 AI(XAI)가 앵커링 편향의 부정적 효과를 완화하는 데 도움이 되었다. AI 설계 방식에 따라 편향 감소 도구가 될 수 있다는 의미다.

Overcoming Anchoring Bias. The Potential of AI and XAI-based Decision Support, arXiv, 2024

반대 증거 ③. 필터 버블의 영향은 과장되었을 수 있다.
2022년 로이터 저널리즘 연구소의 문헌 리뷰에 따르면, 에코 챔버의 존재는 인정하면서도 그 영향이 언론에서 과장되었을 가능성이 있다. 대부분의 사람들은 여전히 다양한 정보원에 노출된다는 연구도 존재한다.

Echo chambers, filter bubbles, and polarisation. a literature review, Reuters Institute, 2022

한국 사회에서 발견된 것들. 말 못한 상황의 예측

한국 사회에서 이 구조가 어떻게 작동하는지 추적하니, 몇 가지 데이터가 발견되었다.

AI 뉴스 추천의 역설. 한국정보학회(KCI) 연구에 따르면, AI 뉴스 추천 서비스 사용자들은 정보가 편향될 수 있다는 것을 인지하면서도 편리함 때문에 계속 사용했다. 알면서도 쓴다는 이 구조가 편향 고착화의 핵심 고리다.

AI 자동 뉴스 추천 서비스 사용자가 인지하는 정보 편향성에 대한 연구, KCI

이 데이터들을 조합해서 예측해보면, 아직 공식적으로 논의되지 않았지만 다가올 가능성이 있는 상황들이 보인다.

예측 상황 ①. AI 맞춤형 정보 편식의 일상화.

현재 AI 챗봇은 사용자의 질문 패턴을 학습한다. 확증 편향이 있는 사용자가 편향된 질문을 반복하면, AI는 그 편향에 맞는 답을 생성한다. 사용자는 확신한다. AI도 내 생각과 같으니 내가 맞다고. 이 루프가 반복되면, 사용자의 현실 인식과 실제 현실 사이의 간극이 점점 벌어질 수 있다. 이미 데우스토 대학교 연구(2023)와 UCL 연구(2024)에서 이 메커니즘의 초기 단계가 관찰되었다.

예측 상황 ②. AI 진단 의존 사회의 출현.

AI 의료 진단 도구가 확산되면서, 환자가 AI가 괜찮다고 했으니 괜찮다고 판단하는 사례가 늘어날 수 있다. 반대로 AI가 위험하다고 했으니 수술하겠다고 판단하는 사례도 늘어날 수 있다. BMJ(2025)가 경고한 자동화 편향이 환자 차원으로까지 확대되는 시나리오다.

예측 상황 ③. AI 투자 과신의 확산.

AI가 추천한 종목에 대한 앵커링 편향이 작동한다. AI가 골라줬으니 맞겠지라는 자동화 편향이 결합된다. 투자자는 자체적 분석 없이 AI 추천을 따를 가능성이 있다. 알토 대학교 연구(2025)에서 확인된 AI 사용 후 과신 현상이 투자 영역에서 특히 위험할 수 있다.

이익에 따른 행위자별 움직임.

아래는 수집된 데이터를 기반으로, 이 구조에 관여하는 각 행위자의 동기와 행동과 결과를 정리한 것이다.

행위자관찰된 동기관찰된 행동관찰된 결과
플랫폼 기업광고 수익 극대화참여도 기반 알고리즘, 맞춤 추천필터 버블 형성, 인지 편향 강화
AI 개발사서비스 의존도 증가자신감 있는 빠른 답변, 사용자 선호 반영자동화 편향 촉진, 사용자 과신
광고주타겟 광고 효율 극대화행동 데이터 기반 정밀 타겟팅무의식적 구매 결정 유도
미디어클릭과 조회수 수익자극적 헤드라인, 반복 보도가용성 휴리스틱 강화, 위험 인식 왜곡
규제 기관공공 이익 보호EU AI Act 등 법안 추진기술 발전 속도와의 격차
개인 사용자편리함, 빠른 답, 확인 욕구AI 추천 무비판적 수용단기 만족, 장기 판단력 저하

현실의 혜택과 비용. 인지 편향 인식이 만드는 차이

인지 편향을 인식한 경우에 관찰된 결과

2024년 PMC 연구에서 확인되었다. 확증 편향 교육을 받은 집단은 가짜뉴스 식별 능력이 향상되었다.

2019년 Psychological Science 연구에서 확인되었다. 디바이어싱 훈련을 받은 전문가는 직업적 의사결정과 개인적 의사결정의 질이 모두 개선되었다.

2022년 ACM 연구에서 확인되었다. 인지 편향을 인식하는 사용자는 AI 조언을 비판적으로 검토했다. AI와 인간의 협업 정확도가 향상되었다.

인지 편향을 인식하지 못한 경우에 관찰된 결과

2023년 데우스토 대학교 연구에서 확인되었다. 편향된 AI와 작업한 참가자는 AI 제거 후에도 같은 오류를 반복했다.

2025년 알토 대학교 연구에서 확인되었다. AI 사용자 전원이 자기 능력을 과대평가했다.

2025년 BMJ 리뷰에서 확인되었다. AI에 의존한 의사들의 비판적 사고 능력이 약화되었다. 기존 편향이 강화되었다.

연구에서 관찰된 효과 있는 행동들

아래는 이렇게 하라는 지시가 아니다. 연구에서 이런 행동을 한 집단에서 이런 결과가 관찰되었다는 데이터를 정리한 것이다.

①. 이 편향이 존재한다는 사실을 아는 것 자체가 방어막이 되었다.

2024년 PMC 연구에서, 확증 편향이 무엇인지 설명을 들은 집단은 가짜뉴스에 덜 속았다. 편향의 이름을 아는 것만으로 행동이 달라졌다. 확증 편향, 앵커링, 가용성 휴리스틱. 이 세 가지 이름을 기억하는 것이 첫 번째 관찰된 방어 행동이다.

②. AI의 답을 받은 뒤 반대 질문을 던진 집단이 더 정확했다.

2022년 ACM 논문에서, AI 조언을 비판적으로 검토한 사용자는 AI와 인간의 협업 정확도가 높았다. 구체적으로, AI가 이렇게 답했는데 이 답이 틀릴 조건은 뭐지라고 자문하는 행동이 관찰된 효과적 전략이었다.

③. AI 없이 먼저 자기 판단을 세운 집단이 AI 편향에 덜 끌려갔다.

데우스토 대학교 연구(2023)의 실험 3에서, AI 조언을 받기 전에 먼저 자기 힘으로 과제를 수행한 집단은 이후 편향된 AI 조언에 영향을 덜 받았다. 먼저 생각하고, 그 다음에 AI에게 물어본 것이 방어 효과를 만들었다.

④. 정보를 다양한 출처에서 교차 확인한 행동이 효과적이었다.

로이터 연구소(2022) 리뷰에 따르면, 다양한 정보원에 노출된 사용자는 필터 버블의 영향을 덜 받았다. 하나의 AI 챗봇, 하나의 뉴스 앱, 하나의 검색 엔진에 의존하지 않고 복수의 출처를 사용한 사람들에게서 편향 감소가 관찰되었다.

⑤. 주기적으로 내가 과신하고 있지 않은가를 점검한 행동.

알토 대학교 연구(2025)의 핵심 발견은, AI를 쓸수록 모든 사람이 자기를 과대평가한다는 것이었다. 이 연구가 시사하는 것이 있다. AI 사용 후에 내가 정말 이걸 이해하고 있는가, 아니면 AI가 이해한 것을 내 이해로 착각하고 있는가라고 질문하는 것이 과신에 대한 점검 도구가 될 수 있다는 것이다.

⑥. 시스템 2를 의도적으로 작동시키는 시간 확보.

2022년 ACM 논문의 핵심 구조가 있다. AI의 빠른 답이 시스템 1(자동적 사고)만 작동시키고 시스템 2(분석적 사고)를 비활성화한다는 것이었다. 관찰된 대응은 이렇다. AI 답변을 받은 직후 바로 수용하지 않고 일정 시간을 두는 것이었다. 즉각 반응을 지연시키는 것만으로도 시스템 2가 개입할 여지가 생겼다.

※ 본 글은 AI로 작성된 글이 섞여 있습니다. AI로 정리했지만 있는 객관적 사실을 연계해서 만든 자료입니다. (자료는 꽤 신뢰할 수 있게 만들었습니다.) 단 답으로 생각하지마시고 하나의 판단을 하는데 도와주는 글로 봐주세요. 판단은 본인이 하는것이고 재미있게 봐주세요.

최신글

댓글 남기기