[김지현의 IT세상] AI 윤리강령 고민할 때

송길호 기자I 2021.07.22 05:50:00
[김지현 IT칼럼니스트]법률가나 의사, 기자들에겐 그들에게 요구되는 사회적 책임으로 인해 윤리강령이 존재한다. 그만큼 사회적 영향력이 큰 직업은 그에 수반하는 책임감을 가져야 한다. 마찬가지로 소프트웨어 엔지니어, 컴퓨터 개발자에게도 요구되는 윤리 강령이 있다. 다만, 사회적으로 공론화될 수준은 아니며 단체나 기업 내부의 가이드 수준으로 운영될 뿐이다. 그런 윤리강령의 내용에는 공익과 보안, 지구환경 및 개인정보 취급 등에 대한 내용들로 구성되어 있다. 특히 개인정보와 보안 관련 이슈는 심각한 사회 문제를 야기하기 때문에 각 기업들이 이와 관련된 윤리강령을 소프트웨어 개발자들에게 강하게 요구하고 있다.

그런데, 소프트웨어 개발 윤리 강령보다 인공지능(AI)과 관련된 윤리 의식 그리고 사회적으로 강력한 준수 의무에 대한 필요성이 대두되고 있다. 그 이유는 일반 소프트웨어보다 AI가 우리 사회에 주는 파급력이 크기 때문이다. 은행, 집, 군사 보안 시설 등에 사용되는 생체 인증이나 자율주행, 상품과 뉴스 추천 그리고 보험 상품 추천과 대출을 위한 심사 및 금융 투자, 의료 등의 여러 산업 분야에 인공지능이 사용된다. 그런 인공지능이 인간이 의도적으로 편향된 판단을 하도록 설계된 알고리즘에 의해 불공정한 추천을 하거나 결정을 하면 그것은 고스란히 우리 사회에 부정적 영향을 주게 된다. 추호의 의심없이 인공지능이 결정하고 추천한 정보에 길들여지면서 우리 사회는 지독한 편견에 사로 잡힐 수도 있는 것이다.

인간이 관여해서 내린 판단이나 결정은 인간이기에 잘못할 수 있다라는 의심을 하게 된다. 그래서, 곧이 곧대로 그 결정을 믿지 않고 심사숙고의 시간을 거치게 되는 것이 인지상정이다. 하지만, 흔히 공정하고 공평한 그리고 객관적 판단을 하리라 신뢰하는 AI가 판단한 정보에 대해서는 그런 의심이 희석된다. 그것이 두 세번 반복되면서 길들여지게 되면 AI의 선택을 무의식적으로 수용하게 된다. 일례로 AI가 좋은 기사라고 추천하는 뉴스와 영상만을 기계적으로 보고 듣다보면 그것이 뉴스의 전부라고 믿게 되는 것이다. AI가 가장 빠른 길이라고 추천하는 내비게이션의 경로를 추호의 의심도 하지 않고 따르다보면 눈 앞에 뻔히 막히는 길을 보고도 대안을 생각하지 않고 기계적으로 따르게 되는 것이다.

이렇게 AI가 주는 영향력이 남다르다보니 그 AI를 개발하는 윤리 의식은 그 어느 때보다 중요해지고 있다. AI는 인간과 다르게 정확한 데이터 기반으로 판단하는 것은 맞지만, 그 AI가 그런 지능을 가지게 되는 과정에는 인간이 제공해준 데이타가 핵심적 역할을 한다. ‘콩심은데 콩나고 팥심은데 팥난다.’고 어떤 데이타를 제공해 AI를 고도화했느냐에 따라서 그 AI의 판단 기준은 달라지게 마련이다. 만일 개발자가 의도적으로 고양이를 개라고 하고, 개를 고양이라고 태깅을 해서 데이타를 AI에게 제공하거나, 수 천만개의 실제 현장의 데이타를 정제하는 과정에서 의도를 가지고 특정한 영역의 정보를 제외해서 100만개의 데이터만을 AI에 공급하게 되면 실제 현장과 괴리된 판단을 하는 AI가 만들어질 수 있는 것이다.

이렇게 AI에 어떤 AI를 제공해서 고도화하느냐는 사람, 즉 개발자의 선택이다. 그 과정에서 공정한 AI가 아닌 편협한 AI가 길러질 수 있는 것이다. 더욱 큰 문제는 그런 AI를 공정하다고 믿고 절대신으로 추종하며 비판과 자성의 기회를 놓치는 것이다. 의도적이든 모르고 했든 잘못된 데이터로 길러진 AI를 심사하고 진단하는 기회를 놓치고 무한 신뢰를 가지면 앞으로 계속 더 공정하지 못한 AI로 가속화될 수 있다. 물론 공정한 AI라 할지라도 기술의 오류를 의심하고 재점검하려는 노력을 해야만 더 공정한 AI로 진화될 수 있기에 AI 알고리즘에 대한 평가는 중요하다.

더 나아가 아주 잘 만들어진 AI를 악용, 오용해서 발생되는 사회적 문제도 있다. 딥페이크라는 인공지능을 이용한 기술을 이용하면 특정인의 목소리와 얼굴을 조작해 실제 발언하지도 않고 행동도 하지 않았던 것을 마치 한 것처럼 영상을 조작할 수 있다. 실존하는 사람의 얼굴과 음성을 기반으로 실제 행동과 표정, 목소리를 조작할 수 있다는 얘기다. 긍정적으로 이용하면 배우가 출현한 영화에서 영어로 발음하는 것을 한국어, 중국어, 일본어 등으로 배우의 목소리와 입모양으로 활용하는 것이 가능하다. 온라인 팬 미팅에서 동시에 팬들이 각자 보는 화상 통화 화면에서 팬의 이름을 다르게 불러주며 인사하는 연출도 가능하다. 하지만, 이를 악용하면 정치인이 거짓말을 한 것처럼 녹취 음성을 조작할 수 있고, 유명 연예인의 얼굴로 포르노 영상을 만들 수도 있다. AI를 범죄에 악용하는 것이나 다를바 없는 것이다. 디지털 휴먼, 메타 휴먼 기술은 존재하지 않는 인간의 얼굴과 음성을 새롭게 창작해 진짜보다 더 리얼한 인간을 창조할 수 있다. 이렇게 만들어진 가상의 인간이 노래도 부르고 고객 응대와 상담도 한다면 좋은 기술(Good tech)이다. 하지만, 이것을 보이스 피싱이나 사기에 악용하게 되면 범죄가 되는 것이다.

또, 선의의 AI를 만든답시고 개인의 허락을 받지 않고 개인 정보를 갈취해 인공지능을 고도화하는 데이타로 활용할 수도 있다. 보다 공정한 대출 심사를 한답시고 기존의 대출심사 관련 금융 정보를 각 개인의 허락없이 이용한다면 아무리 공정한 금융 AI가 만들어졌다고 해도 그렇게 비윤리적으로 만들어진 AI를 떳떳하다고 말할 수 없을 것이다. 올초 있었던 이루다 사태만 해도(이루다라는 20대 여성을 부캐로 채팅 서비스를 제공한 AI에게 성희롱과 편견을 유도하는 대화를 하고 이를 SNS에 실어 나르면서 사회적 문제가 된 사건) 핵심은 이루다를 만드는 과정에서 카카오톡의 개인 정보를 사용자의 허락을 받지 않고 임의로 사용했다는 개발자의 윤리 문제였다. 또한, AI와 인간의 대화를 들여다보거나 AI를 악용해 인간을 특정한 생각을 가지도록 유인하고 상품을 강매하는 목적으로 이용된다면 이 또한 문제다. 이같은 AI의 악용이 문제인 것은 그 파급력이 우리 상상을 뛰어 넘을 만큼 크기 때문이다. 보다 많은 사람들이 지속적으로 피해를 입을 수 있어 우리 사회에 심각한 문제를 야기할 수 있다.



이제 AI와 더불어 살아야 하는 우리 사회에서 AI를 만들고 활용하는 소프트웨어 개발자들에게 이전과 남다른 윤리 의식이 요구되고 있다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지