다만 고위험 AI에 대한 검·인증을 받지 않고 AI 서비스를 제공할 경우 3년 이하의 징역 또는 3000만 원 이하의 벌금에 처하도록 한 부분은 지나친 규제라는 평가가 제기돼 권칠승 의원이 소위 논의 과정에서 숙의하겠다고 밝혔다.
|
윤병성 한국과학기술정보연구원 정책연구실 박사는 “법안에 고위험 AI를 검·인증 받지 않고 제품이나 서비스를 개발하면 징역형까지 받게 되는 부분은 기업이 사업하는 데 어려움이 있을 것으로 생각된다”고 언급했고, 대법원 법원행정처 김택우 판사(정보화기획심의관)는 “고위험 AI를 정의하면서 ‘중대한 영향’, ‘위험성이 높은’, ‘대통령령이 정하는 기준’ 같은 다소 포괄적인 용어로 규정해 다양한 사례를 포섭할 수 있지만, 허용되는 AI의 한계가 불명확해지는 문제가 있고 그로 인해 기술 발전에 제약이 생길 우려가 있다”고 말했다.
이에 따라 이날 공청회에서는 고위험 AI에 대한 규제는 단계적 보완 입법을 하자는 의견이 많았다. 과학기술정보통신부 남철기 인공지능기반정책과장은 “(권칠승 의원 법안이) 95% 이상 정부안과 유사해 다행스럽게 생각한다”면서 “다만 강력한 규제를 포함해 AI 법을 제정한 EU도 고위험 AI에 대한 규제의 시행을 2~3년 후로 정하는 만큼 우리도 단계적 보완 입법을 통해 글로벌 규범 정합성에 부합했으면 한다”고 밝혔다.
권칠승 의원은 “고위험 AI에 대한 세부 규정은 유연성을 위해 대통령령으로 했다. 신체형(징역)을 빼는 것이 합리적인지 의견을 주면 소위에서 의견을 개진하겠다. 한 가지 걱정은 이 법안이 AI 기술을 더 발전시키자는 게 기본 목적인데, 자칫 이 규정이 혼란을 줄까 걱정이다. 많은 의견을 주길 바란다”고 언급했다.