|
그는 챗GPT가 아직 열광을 받기 이전인 2021년 ‘AI에 국제경제법 적용(Applying International Economic Law to Artificial Intelligence)’이라는 논문을 통해 AI 관련 국제투자법, 저작권법, 세법 등 일반적 규칙이 필요하다고 선구적으로 제안한 석학이다.
특히 그는 AI규제법이 나라마다 파편적으로 추진되는 점을 거론하며 유엔(UN) 등 국제사회가 공통 원칙에 합의해야 한다고 주장하고 있다.
EU는 지난해 말 AI규제법안에 최종 합의하면서 이르면 2026년 초 시행할 예정이다. EU는 AI 기술 위험에 따라 4등급으로 분류해 차등적 규제를 적용하고, 규정을 어긴 기업엔 최대 3500만유로(약500억원) 또는 세계 매출 7%에 해당하는 거액의 과징금을 부과한다. 가장 강한 등급인 ‘용인할 수 없는 위험’ 등급에서는 공공장소에서 이용되는 실시간 원격생체인식 시스템 사용, 인터넷이나 CCTV 영상에서 스크랩을 통해 안면인식 데이터베이스를 구축하는 행위를 엄격하게 금지했다.
반면 미국은 지난해 11월 법이 아닌 행정명령을 통해 AI를 규제하기로 했다. 기업에 독립적으로 AI위험성을 검증하는 레드팀(red team)을 의무적으로 도입하고 시험 결과를 정부에 제출하도록 하는 등 일정 수준 기업에 자율성을 부여하는 방식이다. 특히 클라우드 서비스 제공자는 외국 고객을 신고하도록 했는데, 국가안보에 중점을 두고 중국 등 적대국이 AI기술에 접근하는 것을 방지하는 데 중점을 뒀다. EU와 비교해 규제 강도에 차이가 있다.
챈더 교수는 “미국과 EU 모두 대형 AI업체들이 제품 출시 전에 제품을 테스트하고 위험을 방지해야 할 의무가 있다는 점에서는 유사하지만 강도나 내용은 제각각이다”며 “상호호환적으로 가야 한다. 미국에서 합법적인 활동에 대해 EU가 거액의 과징금을 부과하려고 한다면 무역마찰이 발생할 수밖에 없다”고 지적했다.
그러면서 AI가 가져올 세계에 대한 새로운 법 체계를 다시 짜야한다고 강조했다. 챈더 교수는 “중요한 질문 중 하나는 AI 관련 문제가 발생했을 때 AI시스템을 구축한 회사와 실제 환경에서 사용한 회사 중 누가 책임을 져야하느냐”라며 AI규제가 간단치 않음을 꼬집었다.
이어 그는 “과거 우리는 로봇이 아닌 인간을 위한 규칙을 만들었다면 이제는 기계가 의사결정을 내리는 세상에 대비할 준비가 돼 있는지 법 전반에 걸쳐 대대적인 개혁 프로젝트가 필요하다”고 강조했다.