전문가들은 한국의 기술 수준과 글로벌 기술 발전 추세를 고려했을 때 금지된 AI 유형을 미리 정하기보다는 국제 규범과 흐름을 살펴가며 규제 방안을 수립하고, 고위험 AI에 대한 관리를 정부가 주도적으로 하되 기업이 AI 안전성을 스스로 평가하고 개선할 수 있도록 독려하는 모델을 만들어야 한다고 조언한다.
|
터미네이터 걱정해 ‘금지된 AI’ 넣기…생체인증 도어록 금지?
관건은 우리 법에도 EU처럼 금지된 AI를 규정할 것인가 여부다. 지난 공청회에서 시민사회단체를 대표해 참석한 유승익 한동대 연구교수는 “금지된 AI 자체를 명확히 설정하는 것이 중요하다”며 “AI가 기본권, 국민의 안전, 건강 등에서 중대한 위협을 초래할 수 있으며, 더 나아가 민주주의 질서와 사법 체계의 근간을 흔들 수 있기 때문”이라고 주장했다.
EU의 AI 법안은 △인간의 잠재의식이나 특정 집단의 취약점을 악용하여 피해를 유발할 수 있는 시스템 △사회적 행동이나 개인 특성에 기반해 생성·수집된 정보를 통해 개인 또는 집단의 ‘사회적 점수(Social score)’를 산출하여 불리한 대우를 유발할 수 있는 시스템 △프로파일링이나 성격·특성만으로 개인의 범죄 가능성을 예측·평가하는 시스템 △직장이나 교육기관에서 개인의 감정을 추론하기 위해 사용하는 시스템 △공공장소에서의 실시간 원격 생체 인식 시스템(단, 납치나 인신매매, 성 착취 피해자 및 실종자 수색 등 특정 목적을 위해서는 예외적으로 허용) 등을 금지한다. 그리고 금지된 AI에 대한 규정을 어기면 전년도 세계 매출액의 7%에 해당하는 과징금을 부과한다.
국내에서는 9개 법안 중 권칠승 의원이 발의한 법안에서만 금지된 AI를 대통령령에 명문화하도록 규정하고 있지만 전문가들은 부정적이다. 최경진 한국인공지능법학회장은 공청회에서 “위험성을 논하기에는 아직 실질적으로 드러난 위험이 많지 않다”며 “핵이나 대량살상무기 등과 연결되는 AI에 대한 규제 필요성에는 모두가 동의하지만, 중요한 것은 규제의 강도가 아니라 얼마나 예측 가능하게 설정되느냐”라고 지적했다. 그는“EU AI법의 불명확성으로 인해 규제 예측 가능성이 떨어지고 있다”고 우려했다.
같은 맥락에서 SAP, 스포티파이, 에릭슨 최고경영자(CEO)를 포함한 49명의 기업 임원, 연구자, 산업 단체에서는 “파편화되고 예측 불가능한 규제 환경으로 인해 EU가 AI 기술 개발에서 뒤처질 위험이 있다”는 내용의 공개서한을 발표했다. 애플과 메타도 EU 내에서 AI 서비스 출시를 보류하거나 포기하겠다고 선언했다.
이에 따라 AI 규제는 실증된 위험을 중심으로 규제해야 한다는 목소리가 크다. IT 업계 관계자는 “AI를 채용에 활용하더라도 특정 인종이나 성별에 편향된 점수를 부여하지 않도록 규제해야 할 뿐 AI 인사 시스템 자체를 금지 대상으로 삼아서는 안 된다”며 “영화 터미네이터처럼 인간을 통제하는 상황에 대해 과도하게 우려할 필요는 없다. 글로벌 규범 논의와 발맞춰 현실적이고 유연한 규제 방안을 마련해야 한다”고 언급했다.
이미 대기업과 공공기관에서는 무하유의 ‘몬스터’, 마이다스인의 ‘잡플렉스’, 제네시스랩의 ‘뷰인더’ 등 AI 채용 솔루션을 활용해 지원자의 자기소개서를 분석하고 역량 및 면접 답변을 평가하고 있다. 생체 인식 도어록을 통해 사원증을 대체하는 기업들도 많아지는 추세다. 이 같은 상황에서 기술 중립적인 태도와 달리 AI 채용이나 AI 생체 인식 관련 기술을 전면 금지할 경우 예상치 못한 피해가 발생할 수 있다.
|
고위험 AI는 정부가 관리…韓 글로벌 기술 수준 고려해야
AI 기본법에 금지된 AI를 넣지는 않더라도, 고위험 AI에 대한 정부의 관리 필요성은 있다. 다만 대한민국의 AI 기술 발전과 산업 혁신을 가속화할 수 있는 방향으로 초점을 맞추는 것이 중요하다.
미국은 지난해 10월 행정명령에서 안전과 국민의 권리에 영향을 미치는 정부 조달 AI를 제3의 전문기관이 주도해 영향 평가를 실시하도록 의무화했다. EU 또한 유사한 조치를 취하고 있다. 우리 정부 역시 환각, 편향성, 개인정보 노출, 유해 정보 활용, 사이버 해킹, 가짜뉴스 배포, 무인 무기 체계, 인간 통제력 상실 등의 AI 위험에 대응하기 위해 연내 ‘AI 안전 연구소’를 설립한다. 이곳에선 △AI 위험 정의 및 안전 평가 △AI 안전 기술 연구 △주요국 및 국제기구의 AI 안전 정책 동향 분석 및 연구 △기업, 대학, 연구기관과의 AI 안전 협력 등을 하게 된다.
기업들은 AI 안전 및 신뢰 평가 부분에서 정부가 가이드라인을 제시하고, 이를 준수하는 기업에 인센티브를 제공하는 방식을 선호한다. 특히 한국의 AI 기술 및 활용 수준이 미국과 중국에 비해 상당한 격차가 있음을 인지하고 정부가 적극 지원해주어야 한다는 입장이다.
배경훈 LG AI연구원 원장은 “기업 내 AI 기술 도입은 고품질의 제품과 서비스를 창출할 수 있게 해 글로벌 경쟁력을 향상시키는 것은 물론 코로나19와 같은 전염병의 확산 예측, 감염 진단, 신약 개발 등에 활용돼 보건 인력 부족 문제 해결에도 기여할 수 있을 것”이라고 전제했다. 이어 “영국의 토러스 인텔리전스가 발표한 글로벌 AI 지수에 따르면 한국은 전 세계 6위의 경쟁력을 보유하고 있지만, 3위와 10위 간 격차가 매우 근소하다는 점을 고려할 때 국가별 AI 경쟁력은 상당히 유동적일 것”이라고 경고하고 “AI 혁명의 초입에서 우리가 어떤 제도를 설계하고 운영하느냐에 따라 국가 AI 경쟁력이 크게 좌우될 것”이라고 말했다.