두 얼굴의 알고리즘, '인공지능'

2021-03-03

좋은 인공지능이 있고, 나쁜 인공지능이 있다?

‘인공지능’(Artificial Intelligence, AI)이라고 하면 뭐가 제일 먼저 떠오르시나요? 네. 사람마다 다를 겁니다. 지금 이 질문을 받고 머리 속에 떠오르는 단어들을 서너 개만 우선 써볼까요? 잠깐 글 읽기를 멈추고요.

‘인공지능’이라고 하면 무엇이 먼저 떠오르세요? 자유롭게 써볼까요.
 
좋은 인공지능 vs 나쁜 인공지능

인공지능은 그 자체로도 놀라운 기술이지만, 그걸 활용한 다양한 사례들 덕분에 비로소 우리에게 익숙한 존재로 다가오게 됐어요. 인공지능을 활용하는 사례는 몇 날 며칠 밤을 새워도 다 얘기하지 못할 만큼 많아요. 우리가 잘 아는 ‘알파고’**가 인공지능의 힘을 전세계에 알린 불씨가 됐죠.

알파고
구글 자회사 딥마인드가 2016년 공개한 인공지능 바둑 시스템. 한국 프로 바둑기사 이세돌 선수와 5번기 공개 대국을 벌였다. ‘인류 최후의 놀이’로 컴퓨터가 정복할 수 없는 최후의 영역으로 꼽히던 바둑에서 당시 최고 프로기사를 대상으로 4대 1로 승리하며 인공지능의 위력을 전세계에 알렸다.

우리가 쓰는 휴대폰에 들어 있는 음성인식 비서 ‘시리’나 ‘빅스비’, 인공지능 스피커부터 얼굴인식 시스템까지, 인공지능은 어느 새 우리 삶 깊숙한 곳까지 들어와 있습니다. 대체로 우리 사회를 보다 편리하고 안전하게 만드는 일에 사용되고 있는데요. 몇 가지 사례를 보며 인공지능이 어떻게 쓰이고, 우리는 또 어떤 태도로 인공지능을 바라봐야 할지 생각해봅시다.

당신에게 인공지능은 어떤 모습인가요?

인공지능, 잘 쓰면 더없이 좋은데

세계보건기구(WHO)는 인류의 건강 문제를 지도하고 조정하는 유엔 전문기구입니다. 이 WHO에 따르면, 2019년 한 해에만 말라리아로 전세계에서 40만 명이 목숨을 잃었습니다. 잡말라리아(Zzapp Malaria)란 기업은 인공지능으로 말라리아를 효과적으로 퇴치하는 기술을 내놓았습니다.

원리는 이렇습니다. 말라리아는 모기로부터 전염됩니다. 모기는 물 속에 알을 낳죠. 알은 유충으로 바뀌고, 모기가 됩니다. 잡말라리아는 유충이 떼지어 사는 물속 지역을 인공지능으로 잡아냅니다. 그리고 해충약을 그 지역에 집중해 뿌립니다. 모기 유충을 박멸하기 위해 넓은 물속에 마구잡이로 약을 뿌릴 필요 없이 효과적으로 모기를 퇴치하는 거죠.

잡말라리아는 인공지능을 활용해 유충이 모여 사는 물속 지역을 찾아내 집중 방역한다.©ZzappMalaria

✔︎ 참고 동영상 : ‘AI XPRIZE’ 준결승에 오른 잡말라리아

2018년엔 경기도 화성에 사는 한 고등학생이 시각장애인을 위한 인공지능 프로그램을 만들어 화제가 됐어요. 당시 동탄고등학교 2학년이었던 김윤기 학생은 인공지능이 시각장애인에게 도움을 줄 방법이 없을까 고민하다가 차도와 인도를 구분해주는 프로그램을 떠올렸죠. 김윤기 학생은 이를 곧바로 실행에 옮겼어요.

먼저, 자전거를 타고 인도를 달리며 휴대폰으로 영상을 찍었어요. 인공지능한테 이 영상을 보여주며 인도와 차도를 구분하도록 훈련을 시켰죠. 공부를 거친 인공지능은 인도와 차도를 구분해 시각장애인에게 음성으로 알려주는 겁니다. 18시간 만에 뚝딱 프로그램을 만들어 테스트해보니 생각보다 꽤 괜찮은 결과가 나왔다고 해요. 인공지능이 시각장애인을 위한 안내견 역할을 하는 셈이죠. 김윤기 학생은 초등학교 5학년 때부터 프로그래밍 언어를 배우기 시작한 덕분에 고등학생임에도 이런 프로그램을 어렵지 않게 만들 수 있었어요.

김윤기 학생은 인공지능에게 차도와 인도를 학습시켜 시각장애인에게 음성으로 알려주는 앱을 고교 2학년 때 만들었다. 김윤기 학생 제공 영상 화면 캡처.

✔︎ 참고 기사 : 시각장애인 안내하는 ‘AI’···고2가 이틀만에 만들었다(중앙일보) ✔︎ 참고 동영상 : 인공지능을 만드는 고등학생 개발자 김윤기(ㅌㅇ)

편리하긴 한데, 불안하기도 해

사람이 만든 인공지능이 거꾸로 사람을 평가하는 일도 일어나고 있습니다. ‘AI 면접’이란 건데요. 보통 회사에서 직원을 뽑거나 아르바이트생을 뽑을 때 면접을 보잖아요. AI 면접은 그 회사 면접관이나 상점 주인 대신 인공지능이 면접을 진행하는 겁니다. 코로나19 이후 비대면 생활이 확대되면서 AI 면접도 더욱 확산되는 추세입니다.

방식은 이렇습니다. 지원자는 매장이나 회사를 방문하는 대신 웹캠이 달린 컴퓨터 앞에 앉아 인사를 하고 자기소개를 합니다. 그럼 AI 면접관이 몇 가지 질문을 던지는데요. 지원자가 이에 대답하면 AI 면접관은 지원자 대답 내용, 얼굴 표정, 눈길을 어디 주는지, 목소리와 태도는 어떤지 등을 종합 평가해 점수를 매깁니다. 아직까지는 ‘인턴’이라 불리는, 정식 직원이 되기 전 단계의 임시직원을 뽑는 데 주로 사용하는데요. 일부 직종이나 대기업, 공공기관에서 정규 직원을 채용할 때도 AI 면접을 활용하는 사례가 늘어나고 있어요.

자, 여러분이 면접 대상이 됐다고 생각해보세요. 사람 대신 인공지능이 나를 면접 보고 점수를 매긴다면 어떤 기분이 들까요. 대체로 의견은 반대로 나뉩니다. ‘사람의 주관적 판단이 개입하지 않으니 더 공정할 것’이란 기대와, ‘아직은 사람이 판단하는 것엔 못 미칠 것 같아 미덥지 않다’는 반응이죠.

육군은 2019년 8월부터 간부 선발 과정에 AI 면접 체계를 시범 도입했다. ©대한민국 육군.

이는 자율주행차가 처음 등장했을 때 사람들이 보인 반응과도 일치합니다. 구글의 자회사 웨이모가 2014년 인공지능과 각종 자율주행 센서로 스스로 운전하는 자율주행차를 처음 공개했을 때, 사람들 반응도 딱 둘로 나뉘었습니다. ‘사고날까봐 무서워 못 타겠다’는 불신과, ‘사람처럼 음주운전하고 사고 낼 일 없으니 더 안전할 것’이란 기대였죠. 지금은 포드나 도요타, 테슬라와 현대자동차 같은 다른 자동차 제조사도 앞다퉈 자율주행 기술을 차에 적용하고 있습니다. 여전히 ‘사고’도 진행 중이고요. 예컨대 테슬라는 자율주행 도중 도로와 하늘을 구분 못해 뒤집어지는 사고가 나기도 했고요. 웨이모 자율주행차도 시내 교차로에서 마주 오던 차와 부딪히는 교통사고를 내기도 했죠.

그렇지만 이런 사고는 사람이 모는 자동차에서도 일어납니다. 오히려 통계는 자율주행 기술보다 사람에게 더 많은 과실이 있음을 보여줍니다. 2018년 미국 캘리포니아 자동차국은 자율주행 사업 허가를 받은 기업들이 내놓은 보고서 내용을 공개했는데요. 사람이 개입하지 않은 완전자율주행 상태에서 난 사고 38건 가운데 자율주행차 과실로 드러난 건 단 1건에 불과했습니다. 나머지 37건은 상대방 차 잘못이거나 보행자, 자전거 탄 사람의 과실 등 사람에 의한 사고였죠. 앞서 얘기한 웨이모 자율주행차 사고도 반대편 차가 교차로에서 중앙선을 넘어 돌진해서 난 사고였고요.

자율주행 분야 선두 주자인 구글은 기술에 대한 자신감이 뿜뿜합니다. 구글은 2021년부터 ‘자율주행(self-driving)’이란 말 대신 ‘자동주행(autonomous)’이란 말을 쓰기로 했습니다. ‘자율주행’이란 말이 사람의 운전을 보조하는 기술처럼 받아들여질 수 있다는 이유에서죠. 그래서 ‘자동주행’이란 말로 사람의 운전을 보조하는 기술이 아닌, 독립된 주행 기술로 인정받고 싶다고 구글은 말합니다. 2020년 12월, 미국 애리조나주에선 웨이모가 만든 자율주행 택시가 시범 운행을 시작했습니다.

웨이모의 자율주행차. ©Waymo

✔︎ 참고 동영상 : 웨이모의 완전자동주행 기술

인공지능은 점점 정교해지고 있어

기술이 사람보다 뛰어나다거나, 이를 미덥잖은 눈으로 바라보지 말자는 얘기를 하려는 게 아닙니다. 기술도, 인간도 불완전합니다. 기술은 인간에 의해 발전하죠. 둘 가운데 하나를 선택하자는 게 아니고요. 서로 보완하고 협업하며 우리 사회에 보탬이 되는 방향으로 나아가야 한다는 얘깁니다. 그걸 우리는 ‘진보’라고 부릅니다.

이 글의 주제인 인공지능의 활약상을 좀 더 들여다볼까요. 사람을 평가하는 면접관을 넘어 아예 인공지능으로 ‘가짜 사람’을 만들어 분양하는 회사도 생겼습니다. 국내 한 스타트업**은 인공지능 기술로 가상 얼굴을 만들고, 그 얼굴로 동영상을 합성하는 서비스를 제공하기 시작했습니다. 얼굴은 한 사람의 존재를 증명하는 대표 특징입니다. 가족이나 친구를 알아볼 때 가장 먼저 얼굴을 보고 구분하는 걸 생각해보면 그렇죠.

스타트업
설립한 지 오래 되지 않은 신생 벤처기업을 일컫는다. 대체로 혁신적 기술과 아이디어를 갖춘 신생 기업으로 사람들에게 인식된다.

그런데 요즘은 얼굴을 안 보고 대화하는 일이 많아졌지만, 반대로 외모가 돋보이길 바라는 마음도 커졌습니다. 남녀 상관없이 말이죠. 비대면 온라인 수업이나 영상통화를 할 때 화면에 비치는 내 얼굴이 다른 사람보다 잘 나오면 좋겠죠. 그런 심리를 인공지능이 기술로 채워주는 겁니다. 아름답고 잘 생긴 새로운 얼굴을 선물해주는 셈이죠.

실제 얼굴과 구분이 안 되는 가상 얼굴을 만들어줍니다. 얼굴만 만들어주는 게 아니라, 춤추고 노래하고 얘기 나누는 고화질(HD) 동영상도 만들어줍니다. 영상을 보면 진짜 사람과 구분이 안 될 정도로 정교합니다. 그래서 사람과 구분하기 위해 일부러 ‘덜 진짜같이’ 만들 정도로 말이죠.

어떻게 만들까요. 먼저, 인공지능에게 수천만 개에 이르는 사람 얼굴을 반복해 보여주며 이를 기억하도록 만듭니다. 이를 컴퓨팅 용어로 ‘딥러닝’이라고 합니다. 말 그대로 아주 깊이 있는 수준까지 컴퓨터를 학습시키는 기법이죠. 컴퓨터는 학습을 반복할수록 똑똑해집니다. 어느 단계에 올라서면 사람보다 더 똑같은 사람을 스스로 만들어내게 되는 거죠.

BTS가 춤과 노래 뿐 아니라 요리도 잘 하고, 컴퓨터도 잘 다루고, 영어·프랑스어·일본어·중국어 등 여러 나라 말도 자유롭게 구사하는 완벽한 아이돌이라면 어떨까요. 지금도 충분히 멋있지만, 그 매력이 훨씬 커지겠죠. 잘생기고, 아름답고, 여러 방면에 소질과 끼도 많은 팔방미인이 되고픈 꿈을 인공지능이 가상으로나마 만들어주는 겁니다. 사람의 욕망을 채워주는 인공지능이라고 할까요.

✔︎ 참고 동영상 : 가상얼굴 분양센터, 디오비스튜디오를 소개합니다

인공지능의 다른 얼굴도 봐야 해

하지만 인공지능이 마냥 착한 얼굴만 하고 있는 건 아닙니다. 최근 들어 늘어나고 있는 ‘딥페이크’ 활용 범죄가 대표 사례죠.

딥페이크는 인공지능을 기반으로 한 사람 이미지 합성 기술입니다. 앞서 소개한 ‘가짜 사람’ 분양 서비스를 떠올리면 됩니다. 문제는 이런 딥페이크 합성 기술을 악용해 불법 음란물을 유포하고 돈을 벌려는 범죄가 늘어나는 겁니다.

2020년 10월엔 일본에서 딥페이크를 활용해 유명 여성 연예인 얼굴을 합성한 불법 음란물 동영상을 유포한 대학생이 체포됐습니다. 비슷한 사례는 셀 수 없이 많은데요. 사이버 보안 연구회사 딥트레이스 보고서를 보면 2018년에 8천여 개였던 딥페이크 영상은 2019년 1만5천여 개로 늘었는데, 이 가운데 96%가 음란물로 나왔습니다. 요즘은 유명인 뿐 아니라 가까운 친구를 이용하는 범죄도 늘었고요.

유명 기술 전문 잡지 MIT테크놀로지리뷰는 2019년 가장 조심해야 할 인공지능 위험 요소 6개 중 하나로 ‘딥페이크’를 지목하기도 했습니다. 예전 같으면 이런 합성물을 만들려면 전문가급 기술 지식을 갖춰야 했겠지만, 인공지능 기술이 발전하며 누구나 어렵잖게 범죄의 유혹에 빠지게 된 셈입니다.

구글이나 페이스북, 마이크로소프트 같은 글로벌 IT 기업들이 딥페이크를 구분하는 기술을 연구하고 있지만, 빠른 속도로 발전하는 인공지능 기술을 따라잡기가 쉽지는 않습니다. 국내에서도 팩트체크넷이 올해 2월, 딥페이크 이미지 식별 서비스를 내놓았습니다. 팩트체크넷은 시민과 기자, 각 분야 전문가들의 팩트체크(사실 여부 확인) 활동을 지원하는 온라인 플랫폼입니다. 2020년 12월엔 이화여대 사이버보안전공 학생 5명으로 구성된 ‘딥트’팀이 딥페이크 영상을 가려낼 수 있는 기술을 개발해 주목을 받기도 했습니다.

딥페이크 사진이나 영상을 만들고 배포하는 건 엄연한 범죄입니다. 이전까지는 ‘정보통신망 이용촉진 및 정보보호 등에 관한 법률’상 음란물 유포죄로 처벌을 받았는데요. 2020년 ‘성폭력범죄의처벌등에관한특례법’이 개정되면서 앞으로는 이 법에 따라 더 강력한 처벌을 받게 돼요. 범죄를 저지르면 5년 이하 징역과 5천만원 미만의 벌금형을 받고, 신상이 공개되며, 전자발찌를 차고 살아야 합니다. 또 앞으로 취업에도 제한을 받게 되죠. 순간의 호기심으로 일생을 망치는 실수를 하지 않기를 바라요.

개인정보를 침해하는 데 인공지능을 악용한 사례도 여럿입니다. 중국 통신장비 제조사 화웨이는 2018년 인공지능 안면인식 기술을 엉뚱한 데 썼다가 입길에 올랐습니다. 군중 속에서 개인 얼굴을 인식해 나이나 민족, 성별 등을 구분하는 인공지능 시스템을 사용하다 들켰거든요. 화웨이는 이 안면인식 시스템이 군중 속에서 ‘위구르족’**을 판별하면 이를 중국 공안 당국에 알려줬다는 혐의를 받고 있습니다. 인공지능 기술을 악용해 중국의 위구르족 탄압에 협조했다는 의혹을 받고 있는 것이죠. 화웨이는 이 안면인식 시스템은 그저 시험용이었다며, 중국 공안과의 연관성에 대해선 부인하고 있습니다. 시험이든 아니든, 악용 가능성을 보여준 것만으로도 손가락질 받을 일이죠.

화웨이는 인공지능 기술을 이용해 위구르족을 자동 판별, 중국 공안 당국에 알려줬다는 혐의를 받고 있습니다. IPVM 유튜브 동영상 화면 캡처.

위구르족
중국과 카자흐스탄 국경 지역에 모여 사는 소수민족. 1949년 중국에 편입된 뒤부터 꾸준히 독립을 요구하며 중국과 충돌해 왔다.

이런 가짜 합성물로 여론을 조작하는 일도 일어나고 있습니다. 화웨이가 또 구설수에 올랐는데요. 2020년 말 벨기에에서 자기네 통신장비를 사도록 SNS 여론을 조작하다 걸린 겁니다. 화웨이는 여론을 조작하기 위해 가짜 계정을 많이 만들었는데요. 이를 진짜처럼 보이기 위해 딥페이크 이미지를 프로필로 사용한 겁니다. 지금까진 프로필 사진만으로도 어느 정도 가짜와 진짜를 구분할 수 있었죠. 예컨대 트위터에선 사진 없이 ‘알’만 떠 있는 계정들은 의심하게 되는 것처럼요. 딥페이크 이미지를 여론 조작에 활용한 첫 사례란 점에서 눈길을 끕니다.

인공지능 속에 인간지능 있다

2018년에는 ‘킬러 로봇’이 논란이 되기도 했습니다. 과학자들이 이를 알리면서 문제가 됐는데요. 당시 전세계 29개 나라 과학자 57명은 “카이스트(KAIST)가 한화시스템과 공동 설립한 국방인공지능융합연구센터가 다양한 킬러 로봇을 개발할 가능성이 있다”며 “앞으로 공동 연구를 비롯한 모든 협력을 중단하겠다”는 성명을 냈습니다. KAIST는 부랴부랴 총장 이름으로 “인간 존엄성을 해치는 연구를 수행하지 않겠다”는 편지를 해당 교수들에게 보내며 사태를 수습하려 했는데요. 이 사건은 좋은 기술도 사람과 사회에 해를 끼칠 수 있다는 경각심을 다시금 불러일으켰습니다.

인공지능이 뭔가 일을 수행하려면, 인공지능이 제대로 돌아가도록 프로그래밍 해야 하겠죠. 이렇게 컴퓨터에 짜놓은 프로그램 방식을 컴퓨팅 용어로 ‘알고리즘’이라고 합니다.

알고리즘은 결국 사람이 만듭니다. 문제는, 이 과정에서 그 사람의 ‘편견’이 들어갈 수 있다는 거죠.

2017년 미국 프린스턴대학 어바인드 나라야난과 영국 배스대학 조애나 브라이슨이란 두 컴퓨터과학자가 실험을 했습니다. 온라인에서 수집한 850만 개 단어를 인공지능에게 학습 시켰는데요. 인공지능은 ‘남성’이란 단어는 수학·공학 관련 직종으로, ‘여성’이란 단어는 예술·인문 직종과 밀접한 관련이 있다고 분류했습니다. 또 유럽계 미국인 이름은 ‘선물’이나 ‘행복’ 같은 유쾌한 단어와 연관지었지만, 아프리카계 미국인 이름은 불쾌한 단어와 연결했습니다.

이건 인공지능이 내린 판단이 아닙니다. 인공지능이 학습하는 데 사용한 단어 뭉치 속에 사람의 편견이 이미 들어가 있었기 때문이죠.

미국의 아주 큰 교육회사 프린스턴리뷰도 비슷한 경험을 했습니다. 프린스턴리뷰는 자신들이 만든 온라인 수업의 수강료를 인공지능에게 지역별로 다르게 매기게 했는데요. 나중에 봤더니 아시아인이 미국인이나 유럽인보다 2배 가까이 비싼 돈을 내고 수업을 듣는 것으로 나타났습니다. 인공지능은 소득이 적은 지역에 사는 아시아인에게 가장 높은 수업료를 매겼습니다. 이를테면 영어학원이 강남 부자동네 주민에겐 수업료를 조금만 받고, 소득이 낮은 지역의 외국인 노동자에겐 비싼 수업료를 받은 셈입니다. 인공지능이 수업료를 매기는 데 사용한 데이터 속에 사람의 인종차별 편견이 녹아 있었던 거죠.

2016년에 열린 한 미인대회도 알고리즘의 편견을 잘 보여주는 사례입니다. 이 대회는 전세계 100개 나라 6천여 명이 낸 인물사진을 대상으로 얼굴 대칭과 피부 상태, 주름 등을 점수로 매기게 했는데요. 심사위원은 ‘뷰티닷에이아이’란 인공지능이었습니다. 이 인공지능이 뽑은 수상자 44명 가운데 43명은 백인이었습니다. 애당초 인공지능이 심사한 사진 대부분이 백인이니, 흑인을 뽑고 싶어도 뽑기 힘든 것이죠. 이렇듯 학습 데이터 자체가 어느 한 쪽으로 기울어져 있어도 이같은 편향이 생겨납니다.

18~29살 여성 부문 미인경연대회 우승자. ©beauty.ai

“칼날이 아니라 칼자루가 베는 방향을 정한다”

“기술은 가치중립적이다”는 말을 많이 합니다. ‘가치중립적’이란 어떤 생각이나 태도에 치우치지 않는 걸 말합니다. 기술만 놓고 보면 좋은 것도, 나쁜 것도 아닙니다. 그걸 어떻게 쓰느냐가 중요한 것이죠.

인공지능도 마찬가지입니다. 좋은 일에 쓰면 좋은 인공지능이 되고, 나쁜 일에 악용하면 나쁜 인공지능이 됩니다. 우리는 인공지능으로 의사가 발견하기 힘든 병도 찾아내고, 농사도 자동으로 척척 짓거나, 우리 눈으로 발견하기 힘든 멸종 희귀동물을 단번에 찾기도 합니다. 힘들이지 않고 우리 외모를 바꿔주거나, 시각장애인의 눈이 돼 길을 안내할 때도 있죠. 때로는 그림을 그리고 노래를 만드는 예술가로 변신하고, 사람보다 훨씬 잘 두는 바둑 스승이 돼 우리 실력을 키워주기도 합니다.

그렇지만 누군가는 인공지능을 이용해 자극적이고 음란한 가짜 동영상을 만들어 돈을 벌려 하고, 사람을 죽일 수 있는 무시무시한 무기를 만들려고 하죠. 특정 대상을 감시하는 데 쓰거나 편견을 조장하는 도구로 활용하기도 합니다. 눈 앞에 놓인 수많은 대상 가운데 어느 것을 벨지 결정하는 건 칼날이 아니라 칼자루를 쥔 손입니다.

그럼 어떡해야 해?

그래서 인공지능을 다루는 사람이 제대로 된 윤리 원칙을 가져야 한다는 얘기가 여러 곳에서 나옵니다. 이른바 ‘인공지능 윤리’를 정하자는 건데요.

네이버는 올해 2월, ‘네이버 AI 윤리 준칙’을 발표했습니다. 네이버 모든 구성원이 인공지능을 개발하거나 이용할 때 지켜야 할 원칙인데요. 5개 항목으로 이뤄져 있습니다. ① 사람을 위한 인공지능이 되도록 개발하고, ② 인공지능이 사람을 차별하지 않도록 다양성을 존중하며, ③ 기술을 잘 모르는 사람도 편리하게 쓰도록 만들고, 사용자가 원하면 그 원리나 배경을 쉽게 설명해줄 것이며, ④ 사람에게 해가 되지 않도록 설계하고, ⑤ 개인 정보를 보호하도록 만들겠다는 약속입니다.

카카오도 2018년 1월 ‘카카오 알고리즘 윤리 헌장’을 내놓았습니다. 이 헌장도 5가지 항목으로 구성돼 있는데요. 큰 틀에선 네이버와 크게 다르지 않습니다. 2019년에는 ‘기술포용성’ 항목을 헌장에 추가했습니다. 카카오가 내놓는 알고리즘 기반 기술과 서비스가 우리 사회 전반을 아우를 수 있도록 노력하겠다는 내용입니다. 두 회사의 보다 자세한 윤리 헌장 내용은 아래 링크를 방문하면 확인할 수 있습니다.

✔︎ 네이버 AI 윤리 준칙 : https://www.navercorp.com/promotion/pressReleasesView/30465

✔︎ 카카오 알고리즘 윤리 헌장 : https://www.kakaocorp.com/kakao/ai/algorithm

구글이나 마이크로소프트, IBM 같은 글로벌 IT기업들도 인공지능을 지혜롭게 다루기 위한 윤리 규칙을 저마다 만들어놓고 있는데요. 구글은 사회적 유익성, 편견과 안전성, 개인정보 보호 등을 우선시하는 7가지 AI 윤리 원칙을 세웠고요. 마이크로소프트도 최근 ‘AI 윤리위원회’를 발족하기도 했습니다.

고기만 먹고 야채를 거르면 영양에 불균형이 생기겠죠. 알고리즘도 편식을 합니다. 그 요리법을 만든 사람의 치우친 생각이 들어 있기 때문이죠. 편견이 반영된 인공지능을 받아들이는 쪽에선 마땅히 견제할 방법이 없습니다. 일방적으로 정보나 서비스를 받아들일 뿐, 그에 대해 의문을 품거나 비판적 사고를 하기가 현실적으로 쉽지 않다는 뜻이죠.

알고리즘을 설계하고 서비스를 하는 쪽에서 ‘기준’을 세우고 이를 따르는 일은 그래서 중요합니다. 유럽연합(EU)은 2016년, 알고리즘을 받아들이는 사람이 거꾸로 알고리즘을 만든 기업이나 사업자에게 왜 이런 식의 결과가 나왔는지 알려달라고 요구할 권리를 주자고 제안했습니다. 이른바 ‘설명을 요구할 권리’입니다. 네이버나 카카오도 이를 윤리 원칙에 명문화했고요.

공존과 통제, 우리의 숙제

좀 다른 시각이지만, 알고리즘과 윤리에 대해 생각해봐야 할 주제는 다양합니다. CNN은 이미 8년 전 이런 질문을 던졌습니다. ‘로봇개를 걷어찬다면 비윤리적일까?’ 사람마다 의견이 나뉠 것입니다. 또 그 로봇이 정말로 고통을 느끼거나 비명을 지른다면 어떨까요?

실제로 독일의 과학자들은 2016년 로봇에게 고통을 가르치는 실험을 진행하기도 했습니다. 감정 없는 로봇에게 왜 굳이 사람 같은 감정을 주입시키려 했을까요? 고통을 안다면 로봇도 자신을 보호할 테고, 그것이 곧 인간을 보호하는 일이기 때문입니다. 자율주행차가 고통이 뭔지 안다면, 사고가 났을 때 자신을 보호하려 하겠죠. 그럼 운전자도 안전할 겁니다. 인간을 닮은 로봇을 만드는 건, 곧 인간을 보호하려는 과학계 움직임인 셈이죠.

감정 없는 로봇을 걷어차는 건 비윤리적인 행동일까. ©Boston Dynamics

✔︎ 참고 기사 : 아프냐? 로봇도 아프다(한겨레21)

우리는 앞으로 인공지능과 로봇과 더불어 살아갈 게 확실합니다. 사람이 할 일은 점점 줄어들고, 기계가 그 자리를 대신하겠죠. 이미 로봇은 바리스타가 돼 커피를 만들고, 식당에서 음식을 대신 나르고, 공항에서 승객을 안내하고 있습니다. 2021년, 사람 대신 로봇이 치킨을 튀기는 가게도 정식 프랜차이즈 사업을 시작했고요. 지난 제19대 대통령 선거 기간 동안 SBS는 ‘나리’(NARe)란 인공지능 로봇 기자를 도입해 투개표 현황을 실시간 전달하기도 했습니다. 나리는 ‘News by Artificial Intelligence Reporter’(인공지능 기자가 전하는 뉴스)의 줄임말입니다. 영국 가디언은 ‘지구상의 마지막 직업’이란 애니메이션을 내놓으며 완전히 자동화된 세상에서 주변부로 밀려난 인간의 모습을 우울한 색조로 조명하기도 했습니다.

✔︎ 참고 웹사이트 : 나리 인공지능 로봇 기자

✔︎ 참고 동영상 : 가디언, ‘지구상의 마지막 직업: 완전히 자동화된 세상을 상상해보기’

인공지능과 인간의 공존은 피할 수 없는 흐름입니다. 그래서 ‘통제’가 중요합니다. 사람의 통제를 벗어난 로봇은 ‘터미네이터’의 스카이넷이 되거나 ‘레디 플레이어 원’처럼 인간을 메타버스에 빠지게 할 수도 있겠죠. 영화 ‘승리호’의 업동이처럼 인간과 더불어 사는 미래의 인공지능 로봇을 그려볼 수도 있겠습니다. 그 미래는 지금부터 그려나가야 할 테고, 우리 몫입니다. 주니어미디어오늘은 이 주제를 계속 탐구해볼 생각입니다.

[원문 보기(주니어미디어오늘)]