이전기사 다음기사
UPDATE 2025-11-05 20:15 (Wed)
로그인
phone_iphone 모바일 웹
위로가기 버튼
chevron_right 교육 chevron_right NIE
일반기사

AI(인공지능)시대의 윤리 규범

【주제 다가서기】

<아시모프의 로봇 3원칙>

△원칙1. 로봇은 인간에게 해를 끼쳐서는 안 되며, 위험에 처한 인간을 방관해서도 안 된다.

△원칙2. 로봇은 인간에 의해 주어진 명령에 반드시 복종해야 한다. 다만, 원칙1에 위배되는 경우는 예외이다.

△원칙3. 로봇은 자기 자신을 보호해야한다. 그러나 앞에 있는 두 가지 원칙에 위배되는 경우는 예외이다.

(SF소설 ‘런어라운드’(1942, 아이작 아시모프) 중에서)

인간은 과연 로봇에게 윤리를 가르칠 수 있을까?

나날이 발전하는 AI(인공지능)기술로 인간의 삶은 한층 편리해지고 있으나 반대로 딥페이크, 킬러로봇, 사이버해킹 등의 여러 가지 문제점 또한 드러나고 있다. AI 기술이 인류에게 독이 될지 약이 될지는 전적으로 인간의 몫인 것이다.

이번 호에서는 현재까지 규정된 여러 가지 AI 관련 윤리규범을 알아보고 인류의 더 나은 미래를 위한 AI와의 공생 방안에 대하여 생각해보고자 한다.

【주제 관련 교과 단원】

△초등학교 실과 6-4-2. 로봇의 이해

△초등학교 도덕 5-1-4. 정보사회에서의 올바른 생활

△초등학교 사회 6-2-4-1. 우리가 만들어가는 미래 사회

【생각 열기】

<자료1>

- AI의 저주? 연예인 음란물 합성에 해킹까지 ‘딥페이크’

AI(인공지능) 기술이 자동차, 의료, 금융 등 각 산업분야에 광범위하게 응용되면서 부정적 사례들도 속출하고 있다. 미국, 유럽, 일본 등 세계 주요 국가에서 AI 산업 활성화와 함께 부작용을 최소화할 수 있는 윤리기준 제정에 나선 것도 이 때문이다.

우선, 최근에는 AI를 통해 연예인 등 유명인 얼굴을 영상에 자동으로 합성하는 ‘딥페이크’ 문제가 갈수록 확산되고 있다. 딥페이크 기술이 컴퓨터그래픽(CG) 제작 절감 비용 등 건설적인 방향뿐 아니라 불법적인 콘텐츠 생산에 활용되고 있는 것이다. 올해 초 스칼렛 요한슨, 엠마 왓슨 등 해외 유명배우 뿐만 아니라 설현 등 국내 유명 연예인들의 얼굴을 포르노 영상 및 사진에 합성한 불법 콘텐츠들이 무작위적으로 유포된 바 있다.

딥페이크는 합성하려는 인물의 얼굴이 주로 나오는 고화질의 동영상을 통해 딥러닝, 대상이 되는 동영상을 프레임 단위로 합성시키는 원리다. 엄연한 초상권 침해인 만큼 유포자 추적과 고소 등으로 법적 조치가 이뤄지기도 하지만, 딥페이크 콘텐츠가 전 세계적으로 동시 다발적으로 생산되며 퍼지기 때문에 현실적으로 이를 모두 막을 방도는 없다.

고성능 그래픽카드가 장착된 컴퓨터와 타겟의 사진이나 영상만 있으면 구글의 오픈소스 AI 개발 도구인 텐서플로우 등을 활용해 누구나 손쉽게 딥페이크 콘텐츠를 생산할 수 있다. 실제 해외 몇몇 사이트에서는 여전히 국내외 유명 연예인의 딥페이크 영상들이 유포되고 있는 상황이다. 포르노 영상뿐 아니라 버락 오바마 전 미국 대통령을 합성한 영상 등 가짜뉴스 제작에도 활용된다.

AI는 사이버 해킹 공격에도 활용되고 있다. 최근에는 중국과 러시아가 사이버 공격에 AI를 활용하고, 이 기술을 북한에 학습 하도록 지원한 사실이 전해지기도 했다.

윤리 의식이 떨어지는 AI가 스스로 반인륜적인 문화를 확산시킬 가능성도 제기되고 있다. 지난 2016년 마이크로소프트(MS)가 내놓은 AI 챗봇 ‘테이’가 백인 우월주의, 나치숭배 등의 발언을 해 MS가 해당 서비스를 즉시 중단시킨 바 있다. 2015년에는 ‘구글 사진’ 서비스의 얼굴 자동인식 기능의 오류로 흑인이 ‘고릴라’로 표시되는 일이 벌어져 회사측이 사과하고 긴급 패치를 내놓기도 했다.

만약 사람의 개입이 불가능할 정도로 AI 기술이 고도화 된다면, 어떤 결과를 초래할지 장담할 수 없다는 것이다. 테슬라와 스페이스X를 이끄는 엘론 머스크는 “AI의 발달은 영화 ‘터미네이터’와 같은 끔찍한 일을 현실에서 일어나게 만들 수도 있고, 악마를 소환하는 것이나 다름 없는 현존하는 가장 큰 위협 요소”라고 지속적으로 경고하고 있다.

닉 보스트롬 트랜스휴먼협회장(옥스퍼드대 교수)은 “윤리와 도덕 같은 인간이 소중하게 여기는 가치들을 정교하게 정의해서 기계에 가르치는 방법을 지금부터 준비해야 한다”고 조언했다. <출처: 한겨레, 2018.5.28>

△ 세계 주요 국가에서 AI 관련 윤리기준 제정에 나선 이유는 무엇입니까?

△ AI를 통해 연예인 등 유명인 얼굴을 영상에 자동으로 합성하는 기술로 가짜 뉴스 제작에도 활용되는 것은 무엇입니까?

△ AI의 발달이 현존하는 가장 큰 위협 요소라고 경고하고 있는 인물은 누구입니까?

△ 닉 보스트롬 트랜스휴먼협회장이 말한, AI와 같은 기계에 가르쳐야 할 ‘인간이 소중하게 여기는 가치들’에는 무엇이 있을지 생각해서 써 봅시다.

【생각 키우기】

<자료 2>

-‘AI 활용 목적은 인간 가치와 일치해야’… 세계 각국 윤리지침 제정

카카오는 올 1월 ‘알고리즘 윤리헌장’을 마련해 발표했다. 국내 기업 가운데 인공지능(AI) 기술 개발과 윤리에 관한 규범을 공표한 첫 사례였다. 이용자의 행복과 사회의 편익을 중시한다는 취지 아래 알고리즘의 독립성, 차별 방지, 학습 데이터 운영 등에 관련한 대원칙을 담았다.

카카오 측은 “원칙과 철학에 기반한 AI 기업이 되기 위해 다섯 달 동안 여러 임직원의 내부토론을 거쳐 완성했다”고 설명했다.

급속히 발전하는 AI 기술이 인류에게 ‘축복’이 될지 ‘재앙’이 될지는 불투명하다. 전문가들 전망조차 극과 극으로 갈려 예측이 쉽지 않다. 이런 가운데 AI와 관련한 윤리기준 마련에 선제적으로 나서는 정부와 기업이 늘고 있다.

지난해 1월 AI 연구지원 비영리단체 ‘퓨처 오브 라이프’는 미국 캘리포니아주 아실로마에서 ‘아실로마 AI 원칙’을 내놨다. 총 23개 항으로 이뤄진 원칙에는 ‘AI의 목표와 행동은 인간의 가치와 일치해야 한다’, ‘자기복제를 통해 빠르게 성능이 향상된 AI는 엄격한 통제를 받아야 한다’ 등의 항목이 들어갔다.

AI로 인한 군비 경쟁을 피해야 하고, 경제 번영은 인류에게 혜택을 주는 데 쓰여야 한다는 내용도 있다. 고(故) 스티븐 호킹 박사, 엘론 머스크 테슬라 대표, 데미스 허사비스 딥마인드 대표 등 2000여 명이 지지 서명을 했다.

구글, 페이스북, 아마존, IBM 등은 2016년 ‘파트너십 온 AI’를 결성해 AI의 부작용 예방을 위해 노력하는 연구자와 단체들을 후원하고 있다.

미국의 정보통신기술(ICT) 전문가 단체인 국제전기전자기술자협회(IEEE)는 2016년 말 AI 윤리기준 지침서의 초안을 발표한 이후 내용을 꾸준히 다듬고 있다. AI가 인권을 보장하고, 투명하게 작동하며, 결정의 도출 과정을 설명할 수 있어야 한다는 등의 원칙을 제시했다.

국내에선 2007년 산업자원부(현 산업통상자원부)가 사회 각계 의견을 수렴해 ‘로봇윤리헌장’ 초안을 작성한 적이 있다. 인간과 로봇의 관계를 규정한 세계 최초 사례로 평가됐지만 공식 제정까지 이뤄지진 못했다. 올 5월에는 경제협력개발기구(OECD)가 AI 기술 관련 권고안 마련에 착수했는데, 전문가그룹 의장에 한국인인 민원기 뉴욕주립대 교수가 선임돼 주목받기도 했다. <출처: 한국경제, 2018.8.24.>

△ <자료2> 를 읽고, 자신이 생각하는 AI 시대의 윤리규범을 만들고 적어 보세요.

△ 아래 기사를 읽고, 기계에게 맡겨도 될 일과 안 될 일에 대하여 구분해 보고, 이 선택의 문제에 대하여 사회 전체의 합의가 필요한 이유를 논술하여 봅시다.

- “AI 시대, 기계에 선택권 맡겨도 될 일과 안 될 일 구분해야”

AI 분야의 세계적 석학인 뉴사우스웨일즈 대학의 토비 월시 교수는 최근 저서 <생각하는 기계> 에서 “인간이 기계의 손에 결정을 맡길 수 있는 분야는 많다. 하지만 설사 기계가 사람보다 더 나은 결정을 할 수 있는 분야가 있다고 해도 그 범위는 일부분에 국한시켜야 한다”며 “사회 전체가 나서서 어떤 일을 기계에게 맡길지 선택하는 작업을 시작해야 한다”고 주장했다. <출처: 전자신문, 2018.3.19.>

【생각 나누기】

△ 아래 글을 읽고, AI 낙관론과 AI 비관론 중 자신의 입장을 정하고 근거를 찾아 친구들과 함께 토론하여 봅시다.

- 진화 거듭하는 AI, 유토피아일까 디스토피아일까

인공지능(AI)이 진화를 거듭하며 빠르게 사람을 따라잡자 ‘AI 디스토피아’ 우려가 잇따라 나오고 있다. 업계에서는 “AI가 사람의 지능이나 사고방식을 따라잡으려면 최소 10년 이상은 걸린다”며 “인명피해나 여론조작 같은 치명적인 부작용을 걱정하는 건 시기상조”라고 일축한다. 다만 이미 당면한 해킹이나 중독, 일자리 축소는 경계할 필요가 있다고 지적한다.

▷AI 낙관론

- 마크 저커버그 페이스북 창립자

“향후 5~10년 사이에 AI는 우리 삶의 질 면에서 많은 향상을 가져올 것”

- 빌게이츠 마이크로소프트(MS) 창업주

“AI는 그저 적은 노동력으로 더 많은 생산과 서비스를 가능하게 하는 최신 기술일 뿐”

▷AI 비관론

- 엘론 머스크 테슬라 최고경영자(CEO)

 

“AI가 북핵보다 더 큰 위협이다.”

 

- 영국 물리학자 고(故) 스티븐 호킹

 

“인류가 대처하는 방법을 익히지 못하면 AI 기술은 인류 문명사에서 최악의 사건이 될 수 있다.”

 

【참고 자료】

생각하는 기계
생각하는 기계

△생각하는 기계

(글 토비 윌시 / 프리뷰 / 2018.6.29)

AI 연구의 세계적인 권위자가 AI의 발전으로 인류가 마주할 미지의 과제에 대해 설명한다.

생각하는 기계의 탄생은 여러 가지 방식으로 우리의 삶에 영향을 미칠 것이다. 최악의 경우 인간의 생존을 위협하게 될지도 모른다. 현재 인간이 수행하는 많은 일을 기계가 대신하게 되면서 사회와 경제 전반에 큰 변화를 불러올 것이다. AI의 발전은 앞으로 인류의 삶에 어떤 영향을 미칠 것인가? 저자는 생각하는 기계가 인류에 미칠 영향에 대해 매우 비판적인 시각으로 분석을 시도한다. <출처: 네이버책>

담임 선생님은 AI
담임 선생님은 AI

△담임 선생님은 AI

(글 이경화 / 그림 국민지 / 창비 / 2018.6.22)

AI가 대체 불가능한 인간의 역할을 탐구하는 SF 동화.

인공 지능 교사를 주인공으로 내세운 SF 동화로, 아이들과 AI 선생님이 함께 생활하며 겪게 되는 갈등과 등장인물들 사이의 관계 변화를 유머러스하면서도 속도감 넘치는 문체로 그렸다. 개성 강한 인물들의 뚜렷한 입장 차이를 통해 로봇 상용화가 인간 사회에 끼치는 영향을 다각도로 고찰하고, 인공지능 시대에 인간의 역할과 ‘인간다움’에 대해 진지한 고민을 이어나가게 하는 작품이다. <출처: 네이버책>

【학생 글】

AI 기술은 인류의 미래를 더 발전시킬 것이다

조성빈(김제 월성초 5학년)
조성빈(김제 월성초 5학년)

- 조성빈 (김제 월성초 5학년)

AI 기술을 잘 이용하면 인류의 미래는 더욱 발전하게 될 것이다.

AI 기술은 우리가 자율주행자동차로 안전하게 운전할 수 있게 해주고, 위험한 수술도 가능하게 하며 범인이나 가짜뉴스를 찾을 수도 있게 할 것이다. 그리고 사람들이 하기 싫어하는 힘들고 어려운 일들을 하는 AI 로봇도 개발하여 인간 대신 일할 수 있으며 위험에 처한 인간을 도울 수도 있을 것이다.

하지만 나쁜 목적을 가지고 AI 기술을 사용한다면 인류의 미래는 어떻게 될지 모른다. 영화 속 장면처럼 지구가 멸망하여 로봇만 남는 세상이 올 지도 모른다.

그래서 AI 기술을 사용하는 사람들이 잘 판단하여 나쁜 곳에 사용하지 않고 인간을 도울 수 있고 행복하게 하는 곳에 사용한다면 여러 산업도 발전하게 될 것이고 우리의 삶은 더욱 편리해질 것이다.

AI 기술은 올바르게 사용해야 한다

박시현(김제 월성초 5학년)
박시현(김제 월성초 5학년)

- 박시현 (김제 월성초 5학년)

AI 기술은 사람들을 편리하게 해주시만 그것을 나쁘게 이용하는 사람들도 많아지고 있다. 딥페이크나 사이버해킹에 AI 기술을 이용하기도 하고 군사용으로 킬러로봇을 만들기도 한다.

아직은 우리에게 큰 피해를 주고 있지는 않지만 언젠가는 일반인들의 얼굴도 딥페이크로 합성될 수 있고 로봇들이 사람들을 죽일 수도 있을 것이다.

언젠가는 AI가 사람들을 지배하는 세상이 오지 않을까?

AI 기술이 발전할수록 이에 대비해서 나쁘게 이용하는 사람들을 막을 수 있는 방법을 찾아야 한다. 예를 들어 사람들이 AI 기술을 나쁘게 사용하지 못하도록 규칙을 만들고 나쁘게 사용되는 AI 기술을 감시할 수 있는 착한 AI 기술을 개발하는 것이다.

이 문제를 해결하지 못하면 인간의 삶을 편리하도록 만든 AI가 인간을 해칠 수 있는 가장 큰 문제가 될 것이다./p>

/제작=최정희 (김제 월성초등학교 교사)

저작권자 © 전북일보 인터넷신문 무단전재 및 재배포 금지

다른기사보기

개의 댓글

※ 아래 경우에는 고지 없이 삭제하겠습니다.

·음란 및 청소년 유해 정보 ·개인정보 ·명예훼손 소지가 있는 댓글 ·같은(또는 일부만 다르게 쓴) 글 2회 이상의 댓글 · 차별(비하)하는 단어를 사용하거나 내용의 댓글 ·기타 관련 법률 및 법령에 어긋나는 댓글

0 / 400