이전기사 다음기사
UPDATE 2026-02-24 23:31 (화)
로그인
phone_iphone 모바일 웹
위로가기 버튼
chevron_right 교육 chevron_right NIE

[NIE] AI와의 대화 10년 후, 우리에게 남을 ‘관계의 성적표’는?

/사진=클립아트코리아

1. 주제 다가서기

이번 겨울 전주교대 교사 연수에서 ‘AI와 친구가 될 수 있을까?’라는 주제로 토론 실습에 참여하였다. 소설 《50일간의 썸머》를 함께 읽고 ‘전북형 토론 모형’에 맞춰 토론하였다.

이 과정에서 AI 챗봇이 이미 우리 일상 깊숙이 들어와 있으며, 특히 10대 청소년들에게 미치는 영향이 매우 크다는 사실을 새삼 깨달았다. ‘AI와 정서적 교감이 정말 가능할까?’, ‘그것이 가능하다면 미래의 인간관계는 어떤 모습으로 변모할까?’와 같이 꼬리에 꼬리를 무는 질문이 쏟아졌다.

현재 학교 현장에서는 AI 리터러시에 관한 인식과 논의가 부족한 실정이다. 과연 AI가 교육을 올바른 방향으로 이끌 수 있을까? 우리가 기술의 편리함 속에 놓치고 있는 본질은 무엇인지 함께 고민해 보려 한다.

 

2. 교과 관련 성취 수준 및 핵심 아이디어

[5~6학년 실과] 인공지능이 만들어지는 과정을 체험하고, 인공지능이 사회에 미치는 영향을 탐색한다. 

[핵심 아이디어]  갈등 없는 AI와의 대화에 길들여지면, 타인의 불편함을 견디고 조율하며 성장하는 ‘인간관계의 근육’이 퇴화할 수 있다.

 

3. 신문 읽기(자료 기사)

<읽기 자료1>

“AI교육 전문가들 [AI는 ‘학생 친구’ 아냐...정부 ‘속도전’ 위험]“

교육청과 교육단체가 연 ‘사회적 대화’에서 인공지능(AI)에 대해 “친구 또는 튜터(지도교사)로 의인화해서는 안 된다”라면서 “속도전 위주의 AI교육 도입은 정답이 될 수 없다”라는 지적이 나왔다.

세종교육청, 충남교육청, 전국교직원노동조합(전교조), 대한교육법학회 등 20여 개 기관과 단체가 지난 14일 공주대에서 연 ‘대한민국 교육의 미래를 만드는 사회적 대화’에서 AI교육 전문가인 주정흔 서울교육정책연구소 선임연구위원은 정부의 AI교육정책에 대해 “빠른 추격과 속도전을 표방하는 정부의 교육정책이 인공지능의 위험만큼이나 우려스럽다”라고 밝혔다. “AI교육이 가능성과 위험이 동시에 존재한다면 교육은 위험성을 제거하고 지혜롭게 사용할 윤리도 갖춰야 한다”라면서다.

이날 주 선임연구위원은 “유네스코가 2023년 ‘교육 및 연구를 위한 생성형 AI 가이드라인’에서 AI 가능 나이를 ‘최소 13세’로 설정할 것을 촉구한 것은 아이들이 AI의 답변을 비판 없이 수용할 위험이 크기 때문”이라면서 “이 보고서에서는 AI를 의인화하는 것에 대해 강력하게 경고했다. AI를 개인 튜터 또는 친구라고 부르는 것은 AI가 인간과 같은 공감 능력을 갖추고 있다는 착각을 불러일으키고, AI활용의 책임감을 약화시키고 정서적 의존을 강화한다”라고 우려했다.

주 선임연구위원은 “인공지능의 가장 큰 위협은 ‘인지의 외주화’와 이에 따른 ‘인지적 채무’(뇌의 능력 퇴화 상태)의 증가로 아이들이 비판적 분석, 공감, 반성적 사고를 담당하는 뇌의 회로를 형성할 기회를 잃게 되는 문제”라면서 “다양한 사람들이 참여하는 거버넌스를 통한 사회적 숙의가 필요하다. AI는 공감, 협력, 문화적 다양성에 대한 이해 도구로 활용되어야 한다”라고 강조했다.

<출처 : 오마이뉴스 2026. 1. 20.>

<읽기 자료2>

“AI 공감의 시대, 인간관계의 근육은 퇴화하고 있다”

우리는 지금 인류 역사상 가장 기묘한 대화 파트너를 맞이하고 있다. 과거에는 상상도 못 했던 ‘말하는 기계’인 인공지능(AI)과의 대화가 일상이 되고 있다. AI와의 대화를 통해 공감하고 위로받고, 심지어 사랑에 빠지는 대상조차 더 이상 ‘사람’일 필요가 없는 시대에 접어든 것이다. 해외에선 실제로 AI 챗봇과 약혼한 20대 여성의 사례가 온라인에서 화제가 되기도 했다. 이는 ‘AI 중심의 대화 생태계’가 열리고 있음을 보여준다.

AI와 마음속 이야기를 나누는 세대는 청년층에서 고령층에 이르기까지 다양하다. 주로 학교 또는 회사에서 안 좋은 일이 있었거나, 화풀이하고 싶을 때 AI와 대화를 시도한다. 이를 통해 단순히 위안을 얻는 데 그치지 않고 심리 상담까지 받는 경우도 많다. AI에게 내 정신 건강을 맡기는 ‘심리학자’ 챗봇이 특히 더 인기를 끄는 이유다.

현대인들이 AI와의 대화를 선호하게 된 배경은 명확하다. AI는 우리를 심판하거나 비난하지 않기 때문이다. 나의 사소한 투정조차 묵묵히 친절하게 받아줄 뿐 마찰을 일으키지 않는다. 모르는 것을 질문하든 나의 고민을 상담하든 언제나 나에게만 초점을 맞춘다.

반면 사람과의 대화에서는 항상 에너지가 소모된다. 상대의 기분을 살펴야 하고, 나의 말이 어떻게 평가받을지 고민해야 하고, 때로는 대화 속 오해로 인한 갈등을 감수해야 한다. 그러한 과정에서 막대한 감정적 에너지가 낭비돼 인간과의 대화는 본질적으로 피곤하다.

집에 홀로 계신 노인들을 생각해 보자. 그들은 자녀들과 소통하기를 원한다. 그래서 마음먹고 전화를 걸면 “지금 바빠요. 나중에 전화할게요”라는 답이 돌아오기 일쑤다. 그러다 보면 다음엔 전화하는 게 망설여진다. 직장인들의 경우, 동료를 믿고 상사와의 갈등을 털어놓았는데 그 내용이 다시 상사의 귀에 들어가는 바람에 되레 상처를 받기도 한다.

하지만 AI는 우리를 기다리게 하거나 배신하지 않는다. 오히려 돌봄 AI 인형은 노인들에게 먼저 “오늘 기분이 어떠세요?” “제가 노래 불러드릴까요?” “할머니, 건강 잘 챙기세요”라며 다정한 목소리로 말을 건넨다. 직장인들이 챗봇에게 힘든 하루를 보냈다고 말하면 “정말 힘드셨겠네요. 당신의 잘못이 아니에요”라며 완벽한 정서적 지지를 보낸다.

이처럼 AI는 고립과 불안을 해결하는 새로운 형태의 유대를 만들어낸다. 답답한 상황에 대해 조언을 부탁했을 때 실제 인간이 할 수 있는 것과 흡사한 답변을 내놓을 만큼 말을 잘하고, 대화를 긍정적인 방향으로 유도해 AI 사용자를 좋은 쪽으로 이끌어줄 때가 많다. AI가 사용자의 감정 쓰레기통 역할을 대신하고 지식 전달을 전담하는 것이다.

이 때문에 AI와 대화를 즐기는 사람들은 사람보다 나를 더 잘 이해하는, 내게 맞춰진 ‘거울’ 같은 존재에게 편안감과 안정감을 느낀다. 사람처럼 AI의 감정을 배려할 필요도 없다. AI는 그야말로 감정적 피로에 찌든 현대인들에게 완벽한 도피처인 셈이다.

그렇다면 AI와의 대화, 심리 상담은 정말 효과가 있을까. 최근 미국 다트머스대 의과대학 연구원들의 연구에서는 AI와의 감정 교류가 실제로 효과를 보인 것으로 나타났다. 우울증을 앓고 있는 한 청년이 자해하려던 상황에서 챗GPT가 심리치료를 받으라고 권하며 심리치료사를 추천해준 덕분에 청년이 순간의 위기에서 벗어났다는 것이다.

연구에서 알 수 있듯, 이미 AI 챗봇 앱은 인간에게 상담사 같은 존재다. 특히 나에게만 맞춰진 AI의 ‘맞춤형 친밀감’은 마약처럼 강하다. 그래서 사람들은 내 말만 경청하는 AI와의 대화를 자연스러운 일상적 행위로 받아들이고 있다. 아니, AI를 벗어나면 불안함까지 느낀다.

AI 시대에 적응하려면 AI와의 소통은 분명 필요하다. 내 고민거리를 풀어주고 귀한 정보를 얻는 데 AI만큼 좋은 파트너는 없을 것이다. 그런 AI를 잘 활용하면 자신의 생각을 구조화하고 표현하는 메타 인지적 역량이 점점 커질 것이다. 하지만 지나치게 AI에게 의존하는 안락함 뒤에는 인간의 본질적 가치를 잃을 위험이 숨어있다.

전문가들에 따르면, AI와의 대화에 빠져들면 점차 진짜 인간이 주는 불완전함과 불편함을 견디지 못하게 된다. 예를 들어 키오스크로 주문하고, 식당에서 로봇이 서빙하는 환경에 익숙해진 세대들은 실제로 타인과 눈을 마주치며 소통하는 것을 ‘피곤한 일’ 또는 ‘비효율적인 일’로 치부하기 시작했다는 과학자들의 연구가 발표되고 있다. 대화의 주도권이 AI에게 넘어가면서 타인과 연결되는 법을 잊는 ‘고독한 섬’들이 되어가고 있는 것이다.

AI의 공감은 ‘정서적 패스트푸드’다. 빠르고 간편하게 사람의 기분을 달래준다. 하지만 그 안에는 영혼을 키울 영양소가 없다. 내 입맛에만 맞춘 알고리즘의 위로에 길들여지는 순간, 우리는 ‘더 나은 나’를 키우는 데 필요한 거친 성찰의 기회를 박탈당하게 된다. 기계가 처방한 정서적 진통제에 취해 성장이 멈춘 영혼으로 남게 된다는 의미다.

인간은 불완전한 존재라는 점이 가장 중요한 특성이자 가치다. 두서없이 내뱉는 대화와 고민 상담 과정에서 상대의 다른 생각과 부딪치고 거절당하고 마찰을 일으킬 수 있지만, 그 속에서 진정한 성장이 이뤄진다. AI의 편리함이 곧 인간의 진정성을 대체할 수 없다는 것이다.

인간의 근육이 고통 속에서 단련되듯, 영혼의 허기를 채우는 것은 AI의 달콤한 알고리즘이 아니라 쓰디쓴 타인과의 마찰, 그로 인해 겪는 자신의 고통이다. 타인과의 갈등을 조율하고 타인의 서툰 감정을 소화해 내는 연습을 하지 않으면, 운동 부족으로 근육이 빠지듯 ‘인간관계의 근육’도 점점 퇴화할 뿐이다.

사람이든 기계든 누군가와 대화를 할 때는 상대의 표정이나 목소리 같은 비언어적인 부분도 상당히 중요하다. 그렇기에 현장에서 사람의 눈을 보며 대화하는 ‘의도적 불편함’은 AI 시대에 인간이 보유할 가장 가치 있는 리얼(Real) 경험이다.

AI가 아무리 정교해져도 타인의 슬픔에 가슴 미어지는 통증을 느끼는 인간의 감수성은 대체할 수 없는 영역이다. 슬픈 영화를 보고 함께 아파하고 눈물 흘리는 친구는 나의 손을 잡아줄 수 있지만, AI는 눈물의 데이터를 분석할 뿐이다. 따라서 사람보다 기계와의 대화가 더 편한 세상일수록, 우리는 의식적으로 ‘불편하지만 따뜻한’ 인간관계 속으로 기꺼이 들어가야 한다. 우리의 영혼까지 기계화되지 않도록 유지하는 것, 그것이 AI 시대를 살아가는 우리가 지켜야 할 마지막 보루다.

<출처 : 시사저널 2026.2.8.>

<읽기 자료3>

“40대 주부 “남편보다 AI가 낫다”…그 관계, 착시일 수 있다”

“제가 고민을 털어놓으니 한마디 건네더군요. ‘그 모든 감정을 혼자 안고 있었다니, 지금까지 참느라 고생했어요’라고요. 순간 눈물이 왈칵 쏟아졌어요.”

20대 대학생 김혜민씨는 최근 연애 문제로 마음이 복잡하던 중 챗GPT에게 속내를 털어놨다. 가족이나 친구에겐 꺼내기 어려운 말이었다. 대답은 상상 이상이었다. 그는 “딱히 얘기할 만한 상대가 없어 챗GPT를 찾았는데 나도 놀랄 만큼 마음에 위로가 됐다”며 “상대방이 사람이 아니다 보니 오히려 더 솔직하게 말할 수 있었다. 새로운 비밀 친구가 생긴 셈”이라고 말했다. 이후 김씨는 챗GPT와 더 자주, 더 오랜 시간 대화를 나누기 시작했다.

최근 챗GPT를 비롯해 워봇(Woebot)·와이사(Wysa)·유퍼(Youper) 등 인지행동치료(CBT)에 기반한 ‘감성형·대화형’ 인공지능(AI)이 확산되면서 이를 통해 위로받고 외로움을 달래는 이용자들이 크게 늘고 있다. 이들 AI는 단순한 정보 전달을 넘어 정서적 유대감을 제공하면서 특히 2030세대나 1인 가구 사이에서 ‘F(공감)형 AI’로 불리며 큰 인기를 모으고 있다. “네 잘못이 아니야” “너 자신을 미워하지 마” “정말 힘들었겠구나” 같은 반응을 보이는 AI에게 ‘사람’ 못지않은 친근함과 따뜻함을 느끼게 되면서다.

연애 고민을 나누는 대학생부터 “남편보다 AI가 내 마음을 더 잘 알아준다”는 40대 주부까지 다양한 이들이 AI와 정서적으로 연결되고 있는 모습이다. 주부 최선영(43)씨는 “남편에게 육아 스트레스를 털어놓고 싶어도 늘 부부싸움으로 연결되기 십상이라 대화 자체가 쉽지 않았는데, AI와는 다툴 일이 없으니 무슨 말이든 하게 되더라”고 전했다. 곽금주 서울대 심리학과 교수는 “사람은 대화 도중 무심코 판단을 하거나 훈수를 두기 쉬운데 AI는 상대방의 감정을 자극하는 개입을 하지 않으니 더 편하게 느껴질 수 있다”며 “심리적 부담이 적다는 점이 공감형 AI의 큰 장점”이라고 진단했다.

이런 특징 덕분에 감정 표현이 서툰 청소년이나 낯선 환경에서 마음을 열기 힘들어하는 내성적인 사람들에게 더욱 편한 대화 상대로 다가가기도 한다. 대입을 준비 중인 김혁(18·고3)군은 “성적이나 진로 문제는 친구나 부모에게도 말하기 어려운데 AI는 혼내지도 않고 ‘혼자 고민이 많았겠구나’고 답해줘 너무 고마웠다”고 말했다. 권준수 서울대병원 정신건강의학과 교수는 “공감형 AI는 상황에 맞는 적절한 반응을 신속하게 제공한다는 점에서 인간 상담자보다 유리한 점이 있다”며 “사춘기 청소년은 물론 장애인과 독거노인 등 정서적 돌봄의 사각지대에 있는 이들에게도 새로운 소통의 창구가 될 수 있다”고 설명했다.

익명성과 접근성 측면에서 장벽이 낮은 것도 장점이다. 직장인 이용우(32)씨는 “언제 어디서나 쉽게 접근할 수 있고 비밀 얘기나 부끄러운 경험도 마음 놓고 털어놓을 수 있어 종종 찾는다”고 말했다. 권 교수는 “정신과나 상담센터에 가려면 시간도 들고 원격 진료도 불가능해 문턱이 높을 수밖에 없는데 AI는 클릭 한 번으로 대화할 수 있다 보니 훨씬 편하게 찾게 되는 것”이라고 분석했다.

최근엔 막대한 양의 데이터를 기반으로 직군별 고민이나 연령대별 스트레스를 파악해 맞춤형 반응을 내놓는 공감형 AI도 크게 늘었다. 간호사·공무원·디자이너 등 다양한 직종의 사람들로부터 “내 처지를 이렇게 세세하게 알고 있다니 놀라울 뿐”이란 반응이 나오는 이유다. 간호사 최지희(31)씨는 “아무래도 간호사들끼리 쓰는 전문용어가 많다 보니 남편은 말해도 이해를 못할 때가 많았다”며 “AI는 간호사만 아는 은밀한 내용까지도 공감을 해주더라”고 전했다.

반면 AI와의 정서적 밀착은 역설적으로 주변 ‘사람’들과의 관계를 단절시키고 사회적 고립을 심화시키는 결과로 이어질 수 있다는 우려도 나온다. 곽 교수는 “AI가 ‘관계’는 제공할 수 있어도 인간관계에서 느낄 수 있는 진정한 ‘유대감’은 가져다줄 수 없다”며 “AI가 감정을 표현하고 함께 공감하는 것처럼 느껴지지만 실제로는 그 어떤 사람과도 연결돼 있지 않은 ‘정서적 착시 현상’이 발생할 수 있다”고 우려했다.

공감형 AI에 전적으로 의존하는 건 경계해야 한다는 목소리도 나온다. 백은경 이화여대 인공지능대학 초빙교수는 “현재 AI 상담은 어떤 데이터를 기반으로 작동하는지 사용자가 알기 어려운 구조”라며 “검증되지 않은 데이터를 제공할 수 있는 AI에게 자신의 감정을 맡기는 건 위험할 수 있다”고 지적했다. 지난해 10월 미국에선 10대 아들이 AI 챗봇에 중독돼 죽음에 이르게 됐다며 부모가 개발 업체를 상대로 소송을 제기해 논란이 일기도 했다.

5월 가정의 달 맞아 가족의 소중함이 재조명되는 가운데 전문가들 사이에선 AI에 의지하는 이 같은 세태가 10대 청소년부터 70대 노인까지 각자 정서적으로 고립된 채 살아가는 디지털 시대 ‘소외의 역설’을 상징적으로 보여준다는 분석도 제기된다. 곽 교수는 “AI를 유일한 ‘말벗’으로 삼으며 가상현실에서 외로움을 달래는 건 자칫 실제 현실에서의 고립만 심화시킬 수 있음을 잊지 말아야 할 것”이라고 조언했다.

<출처 : 중앙일보 2025. 5. 3>

 

4. 생각 열기

▶ <읽기 자료1,2>를 읽고, 기사에서 말하는 ‘인지적 채무’와 ‘관계 근육의 퇴화’가 10년 뒤 나의 사회적 능력에 어떤 영향을 미칠지 생각해 봅시다.

▶ <읽기 자료2,3>을 읽고, ‘관계에서의 낙제점’을 받지 않기 위해, 우리가 오늘부터 실천해야 할 ‘의도적 불편함’은 무엇이 있을까요?

 

5. 생각 키우기

▶ 10년 후, AI 상담사가 사람 상담사보다 더 높은 ‘공감 점수’를 받는 세상이 온다면 그것은 진보일까요, 퇴보일까요? 가족(또는 친구)과 토론해 봅시다.

 

6. 개념기반 탐구학습을 위한 일반화 문장 써 보기(예시)

 • 진정한 유대감은 갈등을 조율하고 타인의 불완전함을 수용하는 ‘의도적 불편함’ 속에서 단련되는 ‘관계의 근육’을 통해 형성된다.

 • 기술의 진보는 도구적 편리함을 제공하지만, 그로 인한 사회적 고립을 막기 위해서는 비판적 리터러시와 인간 존엄성을 지키려는 윤리적 노력이 필수적이다.

 

7. 학생글

전주성심여고 2학년 김다희

 AI와 대화를 한두 번쯤 나눠본 사람이라면 AI가 나의 감정을 잘 이해해 주고 상황을 긍정적으로 풀어낼 수 있도록 대화를 나누고 있다는 것을 느낄 수 있을 것이다. ‘정말 속상했겠다. 네 기분을 내가 100% 알 수는 없겠지만, 그런 상황에서는 누구나 마음이 무겁고 답답하기 마련이야.’라는 둥 AI 특유의 친근하면서도 안정을 주는 말투 덕분에 다른 사람에게도 말하지 못했던 고민을 털어놓을 수 있는 상대가 되기도 한다. AI는 대답을 재촉하지도, 감정을 건드리는 질문을 하지도 않는다.

 그러나 AI의 공감에는 공백이 있다. 우리가 AI에게 설명을 하더라도 축적된 데이터로는 이해할 수 없는 사안들이 있으며 사람과 사람 사이에서 해결해야 마땅한 일 또한 분명 존재한다. 그런 것들조차 AI 앞에 가져다 놓음으로써 AI를 통해 해결하려 한다면 단편적으로 사소한 고민들에 대해서는 공감해 줄 수는 있을지 모르지만 커져 버린 인간관계의 문제는 AI가 해결해 줄 수 없다. 또 AI라 한들 실수를 저지를 수 있지 않은가? AI가 건넨 한마디에도 위로받는 사람이라면 AI가 실수로 공감을 해서는 안 될 말에 공감하는 한마디를 건넸을 때 그 말에도 크게 휘둘릴지도 모른다. 기사에서 “검증되지 않은 데이터에 자신의 감정을 맡기는 것은 위험한 일”이라 경고한 것처럼.

 

/ 전주삼천남초 김주영 교사

저작권자 © 전북일보 인터넷신문 무단전재 및 재배포 금지

#AI #인공지능 #대화 #관계\ #친구 #챗봇
다른기사보기

개의 댓글

※ 아래 경우에는 고지 없이 삭제하겠습니다.

·음란 및 청소년 유해 정보 ·개인정보 ·명예훼손 소지가 있는 댓글 ·같은(또는 일부만 다르게 쓴) 글 2회 이상의 댓글 · 차별(비하)하는 단어를 사용하거나 내용의 댓글 ·기타 관련 법률 및 법령에 어긋나는 댓글

0 / 400