[NIE] 디지털 미디어 시대, 거짓 정보 바이러스에 대비하려면?
 1. 주제 다가서기 2023년 미국 뉴욕의 한 법원에서 원고 측 변호사들이 챗 GPT를 사용해 실제 존재하지 않는 항공사 판례를 법원에 제출했다가 허위임이 드러나 벌금을 낸 사례가 있다. 오늘날 디지털 미디어가 제공하는 정보는 일상에서 흥미를 추구하기 위한 목적에서부터 법원 판결과 같은 중대한 사안까지 폭넓게 활용됨에 따라 정보의 진위 여부를 판별하고 비판적으로 수용하는 태도가 매우 중요해졌다. 과거 전통적 미디어를 향유하던 시대에도 '오보'나 '허위 정보'는 존재했지만, 정보화 시대에 미디어 생산과 소비가 대중화되면서 허위 정보의 양과 위험성은 더욱 증대되고 있다. 허위 정보는 잘못된 신념을 형성하거나 정신적·경제적 피해를 양산하며, 언론 기관의 신뢰도 상실, 사회적 신뢰도 저해, 정치적 극단주의 등 심각한 문제를 야기할 수 있다. 이에 오늘날 우리가 허위 정보에 위협받고 있는 현실을 짚어 보고, 그것의 이유와 허위 정보로부터 우리의 신념을 보호하고 사회적 신뢰도를 구축할 수 있는 방법에 대해 알아보자. 2. 주제 관련 2022 교육과정 성취기준 ·[10공국1-06-01] 사회적 의제를 다룬 매체 자료를 비판적으로 분석한다. ·[10공국2-06-02] 매체의 변화가 소통 문화에 끼치는 영향을 탐구한다. ·[12사문03-02] 미디어의 효과에 대한 이해를 바탕으로 미디어가 생산하는 메시지를 비판적으로 분석하고 대안적 메시지 생산에 능동적으로 참여한다. ·[12사탐02-02] 청소년의 미디어 이용 과정에서 나타나는 문제를 조사하고, 원인과 해결 방안을 제시한다. 3. 주제 관련 기사 읽기 ·[기사1] "틱톡에서 봤어요", "유튜브가 진리야" 보는 대로 믿는다(매경 포커스 2025-05-18) ·[기사2] 이스라엘 스텔스기 격추? AI로 만든 가짜입니다···조작 이미지 범람 주의보(경향신문 2025-06-21) ·[기사3] "피자에 접착제 넣으면 맛있어요" 헛소리 늘어놓는 인공지능 학습방식 따른 태생적 결함(매일경제 2025-06-18) 4. 동기유발 질문 다음은 ‘연세대학교 디지털사회과학센터’에서 개발한 ‘가짜 뉴스 판별법 12조’이다. 신문 기사나 정보를 수용할 때 자신이 실천하고 있는 항목에 V 표시를 해 보자. 가짜 뉴스 판별법 12조 ◈ 제대로 읽기 1. 정보의 출처와 저자 확인하기---------------------------------------□ 2. 제목만 읽지 말고 기사 끝까지 읽기----------------------------------□ 3. 기사 공유 전에 사실 여부 확인하기----------------------------------□ ◈ 비교하기 4. 같은 이슈라도 다양한 출처의 뉴스를 비교하기-------------------------□ 5. 상식에 어긋나면 검색하여 확인하기 ---------------------------------□ 6. 사건 발생 일자와 정보 게시 일자 비교하기----------------------------□ ◈ 데이터 조작 주의하기 7. 조회수, 댓글이 많은 정보도 무조건 믿지 말기-------------------------□ 8. 통계값, 그래프를 주의깊게 해석하기---------------------------------□ 9. 사진, 영상의 조작 주의하기----------------------------------------□ ◈ 치우치지 않기 10. 과도한 감정을 유발하는 뉴스 의심하기------------------------------□ 11. 지지 정당에 대한 뉴스도 비판적으로 읽기---------------------------□ 12. 소속 집단에 대한 뉴스도 편향적으로 읽지 않기-----------------------□ 5. 기사 읽고 활동하기 [기사1] "틱톡에서 봤어요", "유튜브가 진리야" 보는 대로 믿는다 인공지능(AI)의 급격한 발전으로 숏폼 중독 문제 해결은 고차원 방정식이 됐다. 사회관계망서비스(SNS)와 영상 플랫폼을 통해 정보를 접하는 경향을 보이는 청소년들의 경우 '중독'과 페이크 콘텐츠에 취약할 수밖에 없다는 지적이다. 최근에는 AI, 딥페이크 등과 결합한 가짜 정보도 문제로 떠오르고 있다. 유튜브, 틱톡, 인스타그램 등 영상 플랫폼에서 가짜 영상들이 판치고 있고, 청소년들은 여기에 무분별하게 노출되는 실정이다. 요즘 10·20대는 팩트를 중요시하는 '레거시 미디어' 대신 손쉬운 숏폼을 통해 정보를 접한다. 심재웅 숙명여대 미디어학부 교수의 'Z세대 뉴스 이용과 미디어 리터러시' 분석에 따르면 Z세대에게는 신문, 방송 등 전형적인 뉴스 포맷이 큰 의미가 없다. 가령 최근 트렌드, 친구들이 SNS에서 나누는 이야기, 업데이트 등을 뉴스로 이해하기도 한다는 것이다. 즉 언론사가 생산하는 콘텐츠가 아니라 소셜 피드를 스크롤하면서 최신 정보와 흥미로운 이야기를 읽는 행위로 뉴스의 영역을 확장해서 받아들인다. 유튜브 세대로 불리는 Z세대는 다양한 플랫폼을 오가며 뉴스를 짧게 접하고, Z세대보다 더 낮은 연령의 *잘파 세대의 경우 기성 언론사들의 뉴스 형식이 아니라 숏폼 콘텐츠 자체를 뉴스로 인식한다. 미국의 10대 중 절반 이상이 소셜미디어 피드, 메신저 서비스로부터 뉴스를 얻고, 영국 10대는 인스타그램, 틱톡, 유튜브를 통해 뉴스를 접하는 경향을 보인다. 한국의 경우 다른 나라에 비해 유튜브로 뉴스를 이용하는 비율이 높은 특징을 보이는 것으로 나타났다. 스탠퍼드대 연구팀은 2016년 소셜미디어에 친숙한 10대가 온라인 정보의 신뢰도를 판단하는 데 매우 취약하다는 연구 결과를 발표했다. 허위 정보가 더욱 확산할 수밖에 없는 환경에서 이러한 결과가 민주주의를 위협할 것이라는 것이 10년 전 스탠퍼드대 연구팀의 경고다. 청소년들이 사실과 거짓을 판단할 수 있는 능력을 미처 갖추기 전에 딥페이크 콘텐츠에 '브레인롯' 된다면 미래가 암울하다. AI 시대에 우리 아이들을 위한 '미디어 리터러시' 교육이 절실하다. 팩트 체크가 이미 유통되고 있는 가짜 뉴스를 검증하는 사후 대처 방안이라면, 미디어 리터러시는 콘텐츠를 효과적으로 활용할 수 있는 능력을 키우는 근본적인 대책에 가깝다. AI 시대 기술 개발 경쟁에서 이기는 것도 중요하지만 미디어 리터러시를 기반으로 한 소프트파워를 다지는 것 또한 국가 경쟁력과 직결되는 문제다. 미래 세대의 미디어 리터러시 능력이 한 국가의 자유민주주의와 시장경제를 지키는 나침반이 될 수 있기 때문이다. (발췌: 매경 포커스 2025-05-18) *잘파 세대: 1990년대 중반~2020년대 중반에 출생한 세대를 지칭하는 합성어로, Z세대와 알파 세대를 포괄하여 이름. 1-1) Z세대와 잘파 세대가 뉴스를 소비하는 방식이 기존 세대와 어떻게 다른지 설명하고, 이러한 방식이 가짜 정보에 노출되기 쉬운 이유가 무엇일지 생각해 보자. - 1-2) 숏폼, SNS, 유튜브 등 영상 플랫폼, 틱톡 등을 통해 정보를 받아들일 때 필요한 자세가 무엇일지 생각해 보자. - [기사2] 이스라엘 스텔스기 격추? AI로 만든 가짜입니다···조작 이미지 범람 주의보 이스라엘의 이란 공습 이후, 온라인에서는 이란의 대응 효과를 과장하려는 수십 건의 게시물이 쏟아지며 허위정보가 급속히 퍼지고 있다고 BBC가 보도했다. BBC 검증팀이 분석한 결과에 따르면 이들 게시물 가운데 일부는 인공지능(AI)을 활용해 제작된 것으로 이란의 군사력을 자랑하거나 이스라엘에 대한 공격 직후 상황을 보여주는 조작된 영상이었다. BBC 자체 검증팀이 확인한 가짜 영상 중 조회 수 상위 3개 영상은 여러 플랫폼에서 총 1억 회 이상의 조회 수를 기록했다. BBC는 친이스라엘 성향의 계정들 또한 온라인에서 허위정보를 퍼뜨리고 있다고 언급했다. 주로 과거 이란 내 시위와 집회의 영상을 재유포하며, 마치 이란 내에서 정부에 대한 반감이 커지고 있으며 이스라엘의 군사 작전에 대한 지지가 확산되고 있는 것처럼 거짓 주장을 펴고 있다는 것이다. 보도에 따르면 오픈소스 이미지를 분석하는 한 단체는 온라인상에 퍼진 허위정보의 양을 “놀라울 정도”라고 표현하며, 일부 ‘관심 끌기 농장(engagement farmers)’이 온라인 주목도를 높이기 위해 오해를 불러일으키는 콘텐츠를 공유하며 이번 분쟁으로부터 이익을 얻으려 하고 있다고 비판했다. 또한 각종 게임 영상과 AI로 생성된 콘텐츠까지 다양한 허위 정보가 실제 사건인 것처럼 퍼지고 있는 상황을 전했다. 허위 정보의 ‘슈퍼 전파자’ 역할을 하며 팔로워 수가 급격히 증가하는 보상을 받는 SNS 계정에 대한 제보도 이어지고 있다. 실제로 한 친이란 성향 계정은 불과 6일 사이 팔로워 수가 70만명에서 140만명으로 85% 증가하는 비정상적인 행태를 보인다. BBC는 ‘인증 배지’를 달고 있는 이 계정을 실제 기관 계정으로 착각하는 사람도 있지만 누가 이 계정들을 운영하는지는 명확하지 않다고 보도했다. BBC 검증팀이 확인한 계정들에서는 이스라엘 공습에 대한 이란의 대응을 과장하려는 목적의 AI 생성 이미지가 자주 공유됐다. 그중 한 이미지는 텔아비브 상공에 수십 발의 미사일이 떨어지는 장면을 담고 있으며, 조회 수는 2700만 회에 달한다. 이란 사막에 격추된 전투기를 담았다고 주장하며 온라인에서 널리 확산된 한 이미지는 AI로 조작된 흔적이 뚜렷했다고 검증팀은 전했다. 해당 사진의 전투기 주변에 있는 민간인들의 크기가 인근 차량과 동일했고, 모래에는 낙하 충격 흔적이 전혀 발견되지 않았다. BBC 검증팀이 분석한 허위정보 상당수는 X(구 트위터)에서 퍼졌으며, 이용자들은 게시물의 진위 여부를 확인하기 위해 자주 X의 AI 챗봇 ‘그록(Grok)’을 이용했다고 한다. 이와 관련해 BBC 검증팀은 X측에 문의했으나 답변하지 않았다. 틱톡과 인스타그램에도 유사한 영상이 다수 올라오고 있다. 틱톡은 BBC 검증팀에 보낸 성명을 통해 “부정확하거나 오해를 일으키거나 허위인 콘텐츠를 금지하는 커뮤니티 가이드라인을 적극적으로 시행하고 있으며, 독립적인 팩트체크 기관과 협력해 허위 콘텐츠를 검증하고 있다”고 밝혔다. 인스타그램 운영사인 메타(Meta)는 BBC의 코멘트 요청에 답변하지 않았다. 매튜 파치아니 미국 노트르담대학교의 연구원은 BBC 인터뷰를 통해 분쟁이나 정치처럼 양자택일의 선택지가 주어질 때 허위정보가 온라인에서 더 빠르게 확산될 수 있다고 설명했다. 그는 “사람들이 정치적 정체성과 부합하는 콘텐츠를 다시 공유하고 싶어하는 심리적, 사회적 성향을 반영하며, 더 자극적이고 감정적인 콘텐츠일수록 온라인에서 더 빨리 퍼진다는 점과도 관련이 있다”고 말했다. (출처: 경향신문 2025-06-21) 2-1) 소셜 미디어 플랫폼들(X, 틱톡, 인스타그램)이 허위정보 확산에 대응하는 방식의 차이점을 비교하고, 이러한 대응이 얼마나 효과적일 수 있는지 평가해 보자. - 2-2) 매튜 파치아니 연구원의 견해를 바탕으로, 국제 갈등 상황에서 사람들이 허위정보를 더 쉽게 믿고 공유하는 심리적 요인들이 무엇일지 생각해 보자. 뉴스 소비자로서 이러한 경향에 대처하는 방안에 대해서도 이야기해 보자. - [기사3] "피자에 접착제 넣으면 맛있어요" 헛소리 늘어놓는 인공지능 학습방식 따른 태생적 결함 <전략> 6월 기준 하루 평균 1억2,000만 명이 사용하는 챗GPT-4의 전체 환각률은 1.7%지만 법률 학술 인용 부분으로 범위를 좁혀보면 29%로 치솟는다. 업그레이드 버전인 GPT-4o의 경우 요약 인용 등이 아닌 일상 질문에서 오류 비율이 61%, 제미나이 어드밴스드의 경우 금융 분야 인용 생성 중 허위 비율이 77%에 달한다. 블룸버그는 제미나이가 "세계은행 보고서에 따르면"이라고 인용하며 답했지만, 해당 보고서가 실제하지 않는다는 것을 보도한 바 있다. 오늘날 생성형AI의 핵심 문제 중 하나인 AI 환각(hallucination)은 AI가 그럴듯한 거짓 정보를 마치 실제처럼 만들어내는 현상이다. 마치 사실처럼 보이지만 실제로는 존재하지 않거나 틀린 정보를 만들어내는 것이다. 위 사례처럼 존재하지 않는 판례를 만들어내거나, 위험한 조리법을 권하는 것이다. 문제는 이런 환각이 AI의 단순한 실수나 오류가 아닌 구조적인 문제에 있다는 데 있다. 사용자들은 AI가 지식이 많은 똑똑한 존재라고 생각하기 쉽지만, AI는 방대한 지식을 빠르게 검색해 알려주는 역할을 한다. 많은 것을 알고 있다기보다는 주어진 문맥에서 가장 그럴듯한 다음 단어를 확률적으로 예측하는 모델에 가깝다. 각종 생성형AI 모델들이 우리 일상에 깊이 들어오면서 환각 문제를 마주 하는 사용자들도 늘어나고 있다. 사용자들 역시 환각 현상을 알면서도 AI 모델을 많이 사용하는 것으로 나타났다. KPMG와 멜버른대는 최근 전 세계 47개국 4만8340명을 대상으로 'AI에 대한 인식과 활용 실태'를 조사했다. 그 결과 응답자의 절반(54%)은 AI의 안전성과 사회적 영향을 우려한다고 답했다. 그 우려 속에서도 응답자의 72%는 AI를 유용한 기술 도구로 받아들이고 있었다. 선진국에선 AI에 대한 신뢰도와 수용도가 각각 39%, 65%로 신흥국의 57%, 84%보다 낮은 수준을 보였다. 생성형AI 모델들의 환각은 단순한 소프트웨어 결함이나 데이터 오류의 문제가 아니다. 환각은 생성형AI가 어떻게 만들어지고, 작동하는지에 대한 구조적 결과물에 가깝다. 'AI가 왜 거짓말을 할까'가 아니라 '왜 거짓말을 할 수밖에 없을까'를 이해해야 환각 문제를 풀 수 있다. 우선 우리가 생각한 것과 달리 AI는 사실을 모른다. 생성형AI 특히 오픈AI의 챗GPT나 구글 제미나이, 앤스로픽의 클로드 같은 대형언어모델(LLM)은 단어의 '의미'를 아는 것이 아니라 문맥 속에서 다음에 올 가능성이 높은 단어를 예측하는 모델이다. 예를 들어 "피카소는 스페인의"라는 미완성된 문장을 주면 AI는 높은 확률로 '스페인의' 다음에 올 단어로 '화가'를 떠올린다. 여기서 중요한 것은 사실관계가 아니다. AI가 학습한 데이터 중 피카소는 스페인의 화가라는 내용이 많았기 때문에 화가라는 가장 가능성이 높은 답을 골랐을 뿐이다. 학습한 단어에 경찰이 많았다면 경찰이라는 답을 내놓았을 것이다. 이 기능은 AI가 문장을 자연스럽게 이해하는 데 도움이 되지만 그 내용이 진실인지 검증하진 못한다. 그렇기 때문에 앞서 재판 사례들처럼 거짓된 이야기들이 불쑥 튀어나오는 것이다. 학습 데이터에 한계가 있다는 점도 환각 현상을 일으키는 주요 원인으로 꼽힌다. 대형언어모델은 온라인에서 자료를 긁어오는 웹 크롤링, 위키백과 등 유저들이 직접 만드는 오픈백과와 더불어 뉴스, 사회관계망서비스(SNS) 등 다양한 곳에서 데이터를 가져와 학습한다. 문제는 이 데이터에 정확한 정보도 있지만 거짓, 밈(meme), 풍자, 편향된 정보 등 의도적이든 의도적이지 않든 팩트와는 거리가 먼 정보들도 들어 있다는 것이다. 이 중에서도 특히 밈이나 풍자 콘텐츠는 자연스럽고 자주 사용되기 때문에 AI가 이를 '팩트'로 오인할 수 있다. 이와 관련해 일부 전문가들은 생성형AI 모델이 처음 세상에 등장했을 때만 하더라도 '정제된' 학습 데이터가 충분했지만 이제는 더 이상 새로운 데이터가 남아 있지 않다는 점에 주목한다. 기존에 알려진 데이터를 거의 다 학습한 상황에서 AI가 새롭게 학습한 데이터에는 다소 부정확한 내용들이 섞여 있다 보니 이를 학습한 AI들의 환각 현상이 점점 더 심해진다는 것이다. 이는 '지식 압도 현상' 상황에서 더 심각한 문제를 일으킬 수 있다. 많이 쓰인 정보라면 잘못된 정보라도 AI가 이를 인용해 답변하기에 결과적으로는 환각에 기반한 틀린 답을 내놓는다는 것이다. 또한 AI가 명확한 답을 내놓기를 원하는 사용자와, 자신감을 높이는 방식으로 응답하도록 최적화된 AI 모델과의 충돌을 원인으로 보는 시각도 있다. AI로선 잘 모르는 질문을 받더라도 일단 답은 하고 봐야 한다는 절차를 따르다 보니 환각을 일으키게 된다는 것이다. 최근 학계에선 LLM은 구조적으로 환각을 완전히 제거할 수 없다는 연구결과와 더불어 우세한 패턴이 사실적인 패턴보다 강하게 반영될 때 환각이 발생한다는 연구결과가 발표되기도 했다. (출처: 매일경제 2025-06-18) *인공지능 환각(hallucination): AI가 그럴듯한 거짓 정보를 마치 실제처럼 만들어내는 현상. 마치 사실처럼 보이지만 실제로는 존재하지 않거나 틀린 정보를 만들어내는 것이다. 3-1) 윗글에 따르면 생성형 AI의 환각 현상이 단순한 오류가 아닌 구조적인 문제라고 한다. 이러한 구조적 문제의 원인을 AI의 학습 방식과 연관지어 설명하고, 이로 인해 발생할 수 있는 위험성에 대해 말해 보자. - 3-2) 윗글의 ‘AI는 사실을 모른다’는 것의 이유를 대형 언어 모델(LLM)의 작동 원리와 연관지어 분석하고, 이를 통해 AI를 보다 정확하게 활용하기 위해서 사용자가 어떤 노력을 해야 할지 생각해 보자. - / 산서고등학교 이혜영 교사