'마이너리티' 속 범죄 예측, 기술 있어도 안돼?[궁금한AI]

by함정선 기자
2023.06.17 10:00:00

EU, AI 관련 규제법안 가결하며 속도
AI 서비스 ''저위험, 고위험, 금지''로 구분해 규제
얼굴인식, 치안 예측 등은 금지
트위터, 인스타그램 등은 고위험 서비스 속해

[이데일리 함정선 기자] 챗GPT로 시작된 AI의 시대. AI가 만약 범죄를 미리 예측할 수 있다면, 이를 이용해 범죄를 막아야 할까요.

유럽연합(EU)이 이 같은 고민이 필요없도록 인공지능(AI)에 드디어 ‘칼’을 빼들었습니다. 유럽의회가 AI 규제법안을 가결하며 세계에서 가장 처음 AI 규제 법안을 만들게 됐기 때문입니다. 물론 EU 이사회, 회원국과 협상을 진행하려면 시행까지는 시간이 좀 걸릴 테지만 의회는 “역사를 만들었다”며 고무적인 모습을 보이고 있습니다.

EU가 이처럼 AI를 규제법안에 속도를 낼 수 있게 된 것은 챗GPT의 역할도 크다는 평가입니다. 챗GPT의 인기가 커지며 그 부작용에 대한 우려 역시 깊어졌으니까요. ‘언젠가 인류를 망칠 수도 있는 AI로부터 우리를 보호하자’는 주장이 통했던 거죠.

그렇다면 EU가 만든 AI 규제법안 초안에는 무엇이 담겼을까요. 우선 이 법안은 EU에서 배포하는 모든 AI에 적용됩니다. AI의 위험도에 따라 ‘저위험, 고위험, 금지’ 3가지로 구분해서 규제한다고 볼 수 있습니다.

먼저 허용이 금지되는 서비스나 솔루션은 이런 것들입니다. 공공장소에서 실시간으로 얼굴을 인식하는 AI나, 사람의 건강에 점수를 부여하는 시스템, 또는 치안을 예측하는 도구 등입니다. 영화 ‘마이너리티 리포트’가 생각나는 솔루션들입니다.

고위험으로 분류되는 AI는 사람들의 건강이나 안전, 기본권 또는 환경에 심각한 해를 끼칠 수 있는 AI로 규정돼 있습니다. 예를 들면 선거에서 유권자에게 영향을 미칠 수 있는 시스템이나 사용자에게 콘텐츠를 추천하는 4500만명 이상의 회원을 보유한 소셜 미디어 플랫폼 같은 것들이죠. 네, 트위터와 페이스북, 그리고 인스타그램도 모두 포함됩니다.

저위험으로 분류되는 AI시스템은 어떤 것들이 있느냐고요? 이를테면 스팸필터 같은 것들이랄까요.



상황이 이렇다 보니 대부분의 생성형AI 시스템은 ‘고위험’ 분류에 속할 가능성이 커 보입니다. 고위험에 속한 서비스들은 EU가 제시하는 규정을 따라야 한다는데요. AI가 불법적인 일을 저지르지 않도록 관리를 해야 한답니다.

그렇지 않으면? 정말 막대한 벌금을 내야 합니다. 4000만 유로(약 558억원) 또는 연 매출의 7% 중 더 큰 금액을 내야 하죠. 여기서 연 매출은 글로벌 기준입니다. 메타가 EU의 개인정보보호법(글로벌 연 매출의 2%) 위반으로 12억 유로를 부과받은 것을 고려하면 ‘헉’ 소리가 나올 만 합니다.

이쯤 되고 보니 전 세계를 돌며 AI에 대한 규제가 필요하다고 강조해온 샘 울트먼 오픈AI 대표가 왜 유럽의회를 만난 이후에 “우리는 EU의 법안을 지키기 어려울 것 같다”며 “철수하는 것이 낫겠다”는 소리를 했는지 이해할 법도 싶습니다.

챗GPT의 경우 아무리 봐도 고위험 서비스로 분류될 것은 뻔한데, 자칫 잘못하다가는 매출의 7%를 벌금으로 내게 생겼으니 말입니다.

이처럼 기업에는 여러모로 불리해 보이는 이 법안에 대해 마이크로소프트는 우선은 ‘환영한다’는 입장을 밝혔습니다. 오픈AI와 MS는 AI분야 선두로 AI규제에 대해 찬성 의사를 고수하고 있으니까요. 샘 울트먼 대표도 유럽에서 철수 의사를 금방 번복하기도 했죠.

그러나 다른 기업들은 법이 조금은 개선돼야 하지 않겠느냐는 의견을 조심스럽게 내놓고 있습니다. 진정한 고위험을 찾아달라는 거죠.

사실 EU의 AI 규제법안에 대해서는 국내 기업들도 관심이 큰 상황입니다. 아직 국내에서는 제대로 된 AI 산업이 태동하지는 않았지만, 서비스와 동시에 규제에 대한 목소리는 커질 것이 분명해서입니다. 과연 EU의 AI 규제 초안이 어떤 식으로 바뀌어나갈까요.