1. 주제 다가서기
지금까지 인공지능은 주로 우리의 질문에 답을 제시해 주는 ‘도구’로 기능해 왔으나 이제 인공지능은 정보 제공의 기능을 넘어 스스로 판단하고 결정을 내리는 역할을 담당하게 되었다. 도로 위를 달리는 자율주행차, 의사 결정을 하는 AI 알고리즘, 환자의 병증을 진단하고 치료 방향을 제시하는 의료 AI까지. 우리는 이미 인공지능의 ‘판단’이 실현한 일상을 살아가고 있다. 이러한 변화는 우리의 삶을 편리하고 효율적으로 만들어 주었지만, 새로운 질문과 난감한 딜레마 상황을 만들어 내고 있다. 자율주행차가 교통사고를 냈을 때, 알고리즘이 특정 집단을 차별할 때, 의료 인공지능을 활용한 진료가 환자에게 부작용을 유발했을 때, 우리는 그 책임을 누구에게 물어야 할까? 기술은 신속하고 정교하게 발달하고 있지만 그로 인한 책임 구조 정리와 제도의 확충은 더딘 실정이다.
인공지능을 어디까지 신뢰하는 게 바람직할까? 인공지능의 판단을 빌릴 시 우리는 어떤 기준으로 결정하고 얼마나 책임을 져야 할까? 이에 대한 견해는 다양하다. 앞으로 청소년이 살아갈 사회에서는 인공지능이 더욱 다양한 영역에서 인간의 판단을 대시하거나 보완할 것이기에 우리가 어떤 기준으로 인공지능의 판단을 신뢰하고 그에 대한 책임을 설정해야 할지에 대한 논의가 필수적이다.
이번 활동에서는 자율주행, 알고리즘, 의료 분야에서 나타나는 인공지능의 판단 사례를 살펴보고, 그에 따른 책임 문제를 다각도로 분석해 보고자 한다. 나아가 인공지능 기술 발전 속에서 인간과 인공지능, 그리고 이를 둘러싼 다양한 주체들의 판단과 책임의 관계를 어떻게 설정할 것인지, 그 기준과 범위에 대해 탐구해 보도록 한다.
2. 주제 관련 2022 교육과정 성취기준
·[12인기03-03] 인공지능에 대한 비판적 자세를 바탕으로 인공지능과 인간의 공존 방안을 도출한다.
·[12인기03-04] 인공지능의 활용 사례와 윤리적 딜레마 상황을 인공지능 윤리 관점에서 분석한다.
3. 주제 관련 기사 읽기
·[기사1] 자율주행차 사고, 책임은 누구에게 있을까(전국뉴스 2025-09-14)
·[기사2] AI 알고리즘의 그림자, ‘편향성’의 현실(한국정보기술신문 2024-11-20)
·[기사3] AI는 나침반일 뿐...의료사고 최종 책임은 결국 인간 의사(영남일보 2026-05-06)
4. 동기 유발 질문
AI가 인간보다 더 빠르고 정확하게 판단할 수 있다면, 여러분이 AI에게 맡기고 싶은 판단과 결정의 상황은 무엇이 있나요? 여러분은 그 판단을 어디까지 믿을 수 있나요? 그리고 그 결정의 결과에 대한 책임은 누구에게 있다고 생각하나요?
-
5. 기사 읽고 활동하기
[기사 1]
자율주행차 사고, 책임은 누구에게 있을까
“내가 운전한 것도 아닌데 왜 나에게 책임을 묻나요?”
최근 해외에서 발생한 자율주행차 사고 현장에서 피해 운전자가 토로한 말이다. 차는 스스로 달렸고, 운전자는 단지 탑승해 있었을 뿐이었다. 그러나 법적 책임은 여전히 ‘사람’에게 돌아갔다.
자율주행차가 상용화를 향해 빠르게 나아가고 있지만, 사고 발생 시 책임 주체를 둘러싼 논란은 풀리지 않은 핵심 과제로 남아 있다.
◇ 급증하는 자율주행차 사고 사례
국제 교통안전 기관 통계에 따르면, 최근 1년간 보고된 자율주행차 관련 사고는 수백 건을 넘어섰다. 그중 절반 이상은 ‘부분 자율주행(Level 2)’ 상태에서 발생했다. 운전자가 개입하지 않은 상황에서의 충돌, 보행자 인식 실패, 신호 인지 오류 등이 주요 원인으로 꼽힌다.
국내에서도 시범 운행 단계에서 사고가 이어지고 있다. 한 자율주행차는 도로 공사 표지판을 인식하지 못해 추돌했고, 다른 차량은 급정거로 인해 탑승자가 부상을 입었다.
◇ 책임 주체, 여전히 모호하다
가장 큰 쟁점은 사고 발생 시 과실 책임이 누구에게 있는가다.
▲운전자 책임론: 현행 법 체계는 “최종적 제어 권한은 운전자에게 있다”는 입장을 유지한다.
▲제조사 책임론: 소프트웨어 오류나 센서 결함일 경우 제조사와 개발사가 책임을 져야 한다는 주장이 설득력을 얻고 있다.
▲AI 시스템 책임론: 독립적 판단을 내린 AI에게 책임을 묻는 새로운 법적 체계가 필요하다는 의견도 나오지만, 아직 정립되지 못했다.
◇ 보험·법률 시장의 격변
자율주행차 확산은 보험업계에도 커다란 변화를 불러온다. 기존 자동차 보험은 운전자 과실을 전제로 설계됐지만, 자율주행차는 제조사·소프트웨어 보장 범위를 중심으로 재편될 수밖에 없다.
일부 국가는 이미 자율주행차 전용 보험 제도를 도입했고, 국내에서도 관련 제도 마련 논의가 진행 중이다. 법조계에서는 “책임 공방이 길어질 경우 피해 보상까지 지연될 수 있다”며 제도적 보완을 촉구한다.
◇ 기술의 속도 vs 제도의 속도
문제는 기술 발전 속도가 법과 제도를 훨씬 앞지르고 있다는 점이다. 완전 자율주행차 상용화 목표 시점은 점점 앞당겨지고 있지만, 사고 발생 시 법적 책임 규정은 여전히 공백으로 남아 있다.
한 법률 전문가는 “자율주행차 사고 책임 규명은 교통 문제가 아니라 법·보험·윤리·산업이 얽힌 복합적 사안”이라며 “국가 차원에서 책임 주체를 명확히 하는 기준을 서둘러 마련해야 한다”고 지적했다.
◇ 자율주행 시대, 우리의 선택
“자율주행차는 교통사고 사망자를 획기적으로 줄일 수 있는 혁신입니다. 하지만 단 한 번의 충돌이 가져올 사회적 파장은 기존 자동차 사고와 비교할 수 없습니다.” (교통정책 연구 관계자 발언)
기술은 이미 도로 위에 등장했다. 이제 필요한 것은 법과 사회의 합의다. 충돌 순간, 운전자·제조사·AI 중 누가 책임질 것인가. 그 답을 찾지 못한다면, 자율주행차의 미래는 ‘혁명’이 아니라 ‘위험’으로 기록될지도 모른다.
(발췌: 전국뉴스 2025-09-14, 조승원 기자)
1-1) 현행 법 체계가 자율주행차 사고 시 최종적 제어 권한과 책임을 여전히 ‘운전자’에게 두는 것이 타당한지 평가하고, 그 이유를 기사 내용과 자신의 논리를 근거로 서술하시오.
-
1-2) 자율주행 기술이 ‘완준 자율주행’ 단계로 발전할 경우 사고 발생 시 책임 주체는 어떻게 변화할 가능성이 있을지 생각해 보고 그 이유를 서술하시오.
-
AI 알고리즘의 그림자, ‘편향성’의 현실
최근 인공지능(AI)의 활용이 급증하면서 일상에서 AI의 의사결정을 마주하는 사례가 늘고 있다. 그러나 이러한 편리함 이면에는 AI 알고리즘이 지닌 편향성 문제가 심각하게 부상하고 있다. AI의 편향성은 주로 알고리즘 학습 과정에서 사용된 데이터가 특정 집단이나 관점을 과도하게 반영하면서 발생한다. 이로 인해 사회적 차별과 불공정이 강화될 우려가 있다. 지난해 미국의 한 채용 플랫폼이 AI를 활용해 채용을 진행하다 성별 편향성을 드러낸 사례가 대표적이다. 알고리즘이 과거의 데이터를 바탕으로 남성 지원자를 더 선호하도록 학습해 여성 지원자들의 기회가 줄어든 것이다. 대표적인 사례로는 Amazon의 AI 채용 시스템이 있다. 2018년 Amazon은 지원자의 이력서를 평가하는 AI 시스템을 폐기했는데, 이 시스템이 남성 중심의 이력서 데이터를 기반으로 학습해 여성 지원자에게 부정적 평가를 내리는 성별 편향성을 보였기 때문이다. 이에 따라 전문가들은 AI 개발 시 데이터의 다양성과 대표성을 확보하는 것이 매우 중요하다고 지적한다.
얼굴 인식 기술의 심각한 인종 편향
AI 얼굴 인식 기술 역시 편향성 논란에서 자유롭지 않다. 2020년 미국에서는 흑인 남성이 AI의 잘못된 얼굴 인식으로 인해 잘못된 체포를 당한 사건이 발생했다. 이 사건을 조사한 결과 얼굴 인식 AI가 백인 얼굴 데이터 중심으로 훈련돼 흑인이나 유색인종에 대한 정확도가 현저히 낮은 것으로 드러났다. 특히 여성과 흑인에 대한 얼굴 인식 정확도는 상대적으로 낮아, 이들이 부당한 처우를 받을 가능성이 높아지고 있다는 보고서도 여러 차례 발표된 바 있다. 결국 미국 일부 지역에서는 공공기관에서의 얼굴 인식 기술 사용을 제한하거나 금지하는 법안까지 추진되고 있다.
형사 사법 체계의 AI 편향 논란
형사 사법 체계에서도 AI 알고리즘의 편향성이 심각한 문제로 부상하고 있다. 대표적인 예로 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions) 시스템이 있다. 이 시스템은 범죄자의 재범 가능성을 예측하는 데 활용되지만, 흑인의 재범 가능성을 과대평가하고 백인의 가능성을 과소평가하는 인종적 편향성을 보였다는 연구 결과가 공개돼 큰 논란을 일으켰다. 이 사례는 형사 사법 제도에서 AI의 사용이 오히려 기존의 사회적 편견과 불평등을 강화할 수 있다는 점을 잘 보여준다.
AI가 불러온 금융 차별 논란
금융권에서도 AI 알고리즘의 편향성 문제는 크게 부각되고 있다. 최근 미국의 한 대형 은행이 신용 평가에 AI를 도입하면서 특정 인종과 성별에 따라 대출 승인률이 크게 차이 나는 사례가 발견됐다. 예컨대 흑인과 히스패닉 고객들이 유사한 경제적 조건에도 불구하고 백인 고객보다 낮은 신용 평가를 받은 것으로 나타났다. 이러한 문제가 지속되자 미국 금융 당국은 AI 기반의 신용 평가 시스템에 대한 투명성 강화를 요구하고 있으며, 알고리즘 감사제 도입까지 검토하고 있다. AI가 초래하는 금융 차별은 단순히 경제적 손실뿐 아니라 사회적 불신과 갈등을 야기할 수 있다는 점에서 더욱 심각한 문제로 지적된다.
Google 이미지 분류 시스템의 편향 사례
Google의 이미지 분류 시스템 역시 논란을 일으킨 바 있다. 2015년 Google 포토의 이미지 자동 분류 시스템이 흑인 사용자의 사진을 ‘고릴라’로 잘못 분류한 사건이 발생했다. 이 사건은 AI가 편향된 데이터로 훈련될 경우, 심각한 윤리적 문제와 사회적 갈등을 초래할 수 있음을 드러냈다. 이 사건 이후 Google은 이미지 인식 시스템에서 편향성을 제거하고 공정성을 높이기 위한 노력을 강화하고 있다.
AI 알고리즘, 문제 해결의 열쇠는?
AI 알고리즘의 편향성 문제를 해결하기 위해 데이터 투명성과 알고리즘 책임성이 강조되고 있다. 미국과 유럽을 중심으로 AI 윤리 가이드라인과 법적 규제 논의가 활발히 진행 중이다.
전문가들은 알고리즘이 공정성을 유지하도록 정기적인 감사와 평가를 실시하고, 알고리즘 개발 과정에서 편향성을 최소화하는 기술 개발이 필요하다고 제언한다. 무엇보다 중요한 것은 AI를 도입하고 운영하는 기업과 기관이 사회적 책임감을 갖고, 지속적으로 편향성 문제를 점검하고 개선하려는 노력을 기울이는 것이다.
결국 AI 기술이 인간의 삶을 더 윤택하게 만들기 위해서는 알고리즘의 투명성과 공정성을 확보하는 것이 필수적이다. 이는 AI 기술의 지속 가능한 발전과 사회적 신뢰를 유지하기 위한 필수 조건이 될 것이다.
(발췌: 한국정보기술신문 2024-11-20, 한국정보기술진흥원 대외협력본부)
2) 위의 기사에서는 AI 알고리즘의 편향성 문제를 해결하기 위해 데이터 다양성과 알고리즘 투명성을 강조하고 있다. 이러한 해결 방안이 충분한지 평가하고, AI 편향 문제를 근본적으로 해결하기 위해 추가적으로 필요한 조건에 대해 서술하시오.
-
[기사3]
AI는 나침반일 뿐...의료사고 최종 책임은 결국 인간 의사
AI는 ‘보조 수단’ 불과... 사고 시 의사‧병원 법적 책임 피하기 어려워
대구 의료 현장에 인공지능(AI)이 깊숙이 침투하고 있다. 진료 패러다임이 통째로 바뀌는 중이다. 영상 판독 정확도는 획기적으로 높아졌다. 수술 미세 오차도 잡아낸다. 의료 질 향상에는 이견이 없다. 하지만 이면에는 ‘법적 책임’이라는 복잡한 고차방정식이 있다. AI 조언을 따랐다가 사고가 나면 누구 책임인가. 의사가 AI 경고를 무시하고 임상 경험을 믿었을 때는 어떠한가. 형사법 전문 천주현 변호사(법학박사)를 통해 법적 쟁점과 향후 과제를 들여다봤다.
◆“AI는 절대적 과학 법칙 아니다”…맹신이 부르는 법적 과오
최근 로봇수술과 AI 진단 도구 활용이 보편화됐다. 의료진의 기술 의존도도 점차 강해지는 추세다. 하지만 기술적 완성도가 법적 면책을 보장하지는 않는다. 만약 의사가 AI 분석 결과를 전적으로 수용해 처치했으나 사고가 발생했다고 가정하자. 이때 의사는 AI 뒤에 숨어 책임을 면할 수 있을까. 천 변호사는 최근 영남일보와의 인터뷰에서 “의사 판단이나 처치 과정에 과실이 입증된다면 의사는 불법행위 책임을 진다”며 “소속 병원도 사용자 책임을 면하기 어렵다”고 했다. 이는 AI가 산출한 결괏값이 완벽할 수 없다는 기술적 한계와 이를 최종 검증해야 할 의사의 공적 의무가 법적으로 맞물려 있기 때문이다.
그 판단 근거는 AI의 법적 정체성에 있다. 천 변호사는 “AI는 의료인이 무조건적으로 신뢰해야 할 당대 최고의 과학 법칙이 아니다”며 “판단을 지원하는 보조 수단일 뿐”이라고 했다. 현재 의료법·응급의료법·의료분쟁조정법 등 국내 보건의료 관련 핵심 법규 어디에도 AI 권고 이행을 이유로 면책해 주는 규정은 없다. 구체적 가이드라인조차 전무하다.
결국 의사는 AI 제언과 별개로 고도의 전문적 판단을 직접 내려야 한다. ‘당대 최고의 과학적 수준’과 ‘선량한 관리자의 주의 의무(선관의무)’를 다해야 하기 때문이다. 특히 ‘설명 의무’가 중요하다. 처치 전 환자에게 발생 가능한 위험성을 충분히 알리고 동의를 구해야 한다. 이 과정은 AI 도입 여부와 상관없이 온전히 인간 의사의 몫이다. 기술이 아무리 발전해도 생명을 다루는 법적 책임의 최종 주체는 여전히 ‘사람’이라는 의미다.
◆‘AI 경고 무시’와 ‘소신 진료’ 사이…합리적 검토 과정이 유무죄 가를 것
반대의 경우도 논란의 대상이다. AI가 위험 신호를 보냈음에도 의사가 독자적 판단으로 이를 따르지 않았을 때는 어떻게 될까. 천 변호사는 “추가 조사와 면밀한 검토라는 실질적 행위 여부가 법적 성패를 가를 핵심 열쇠”라고 했다.
이어 “의사가 AI 위험 신호를 인지했다고 치자. 이후 자신의 전문 지식을 동원해 해당 신호의 타당성을 면밀히 검토했다면 상황이 다르다”며 “임상적 근거에 따라 자신의 판단이 더 적절하다고 믿어 진료했다면 의사와 병원은 면책될 수 있다”고 덧붙였다. 현재 AI 판단에 반드시 기속(속박)되어야 한다는 법적 의무는 없기 때문이다. 이는 의사의 전문적 재량권이 기술적 데이터보다 법적으로 우위에 있음을 시사한다.
단, ‘합리적 근거 없는 무시’는 치명적이다. 천 변호사는 “AI 경고를 받고도 최소한의 타당성 조사조차 하지 않았다면 문제다”며 “이를 간과하거나 의도적으로 무시했다면 판단 소홀 및 처치 소홀로 간주된다. 이 자체로 법적 책임 소지가 발생한다”고 했다. 결국 AI 의견 수용 여부보다 그 과정에서 의사가 얼마나 ‘성실하게 고민하고 합리적 근거를 남겼는가’가 법적 과오를 가르는 핵심 기준이 된다.
◆“데이터의 시대, 결국은 인간의 책임”
AI 기술이 고도화될수록 법조계와 의료계의 긴밀한 협력이 중요해진다. 단순히 첨단 장비를 도입하는 수준을 넘어서야 한다. 해당 장비가 산출한 결과값의 법적 성격을 어떻게 규정할 것인지에 대한 사회적 합의가 필요하다는 것이다.
천 변호사는 “데이터는 과거 기록일 뿐이다. 미래의 생명을 전적으로 책임질 수는 없다. AI 답이 통계적으로 99% 옳더라도 마찬가지”라며 “나머지 1% 예외 상황에서 환자를 지키는 것은 결국 의사의 직관과 경험”이라고 했다. 즉 기술 만능주의에 빠져 의료의 본질인 ‘인간적 고뇌’와 ‘생명에 대한 책임’을 간과해서는 안 된다는 조언이다. AI는 ‘평균적 데이터’의 산물이지만, 의료 사고는 대개 ‘특수한 개별 환자’ 사례에서 발생한다. 99%의 확률 뒤에 숨은 1%의 특이점을 포착해 내는 게 의술의 본질이라는 의미다.
천 변호사의 법률적 제언을 종합하면, 의료 AI는 의사의 진료를 돕는 ‘나침반’일 뿐 항로를 직접 결정하는 ‘조종키’가 될 수 없다는 결론에 도달한다. AI가 방대한 데이터를 찰나에 분석해 의료진의 시야를 확장해 줘도, 통계적 수치 너머에 존재하는 환자 개개인의 특수성을 고려한 최종 판단은 결국 인간 의사의 몫으로 남는 구조다.
미래 의료의 성패는 오차 없는 알고리즘의 ‘계산’과 환자의 생명을 최우선으로 하는 인간 의사의 ‘책임 의식’이 얼마나 조화롭게 공존하느냐에 달려 있다는 게 전문가들의 공통된 시각이다. 기술은 인간을 돕는 유용한 도구이나, 그 결과에 대한 무거운 책임은 오직 인간만이 질 수 있다는 법의 대원칙은 변함없이 적용될 전망이다.
(발췌: 영남일보 2026-05-06, 강승규 기자)
3-1. 기사에서 제시한 의료 AI 활용 상황에서, 의사가 법적 책임을 지게 되는 두 가지 경우를 찾아 각각 서술하시오.
-
3-2. 의료 AI를 ‘보조 수단’으로 보고 최종 책임을 인간 의사에게 두는 입장이, AI에 대한 의존도가 점점 증가할 미래 의료 환경에서도 여전히 타당할지 평가하시오. 또한 AI에 대한 의존도가 높아지는 의료 환경에서 나타날 수 있는 한계를 한 가지 이상 제시하시오.
-
/ 진안제일고등학교 이혜영 교사