최경진 가천대 교수는 AID 학회(한국정보법학회, 한국데이터법정책학회, 한국인공지능법학회 연합)가 5일 서울 중구 명동 은행회관에서 개최한 토론회에서 “기존에는 AI가 크롤링으로 알음알음 데이터를 학습했는데 이젠 어려워지고 있다”며 “양질의 데이터를 합법적으로 취득하는 가장 좋은 방식은 계약”이라고 말했다. 그러면서 “이런 계약에 대해 공통된 규범을 만드는 데 우리나라도 적극 나서야 한다”고 강조했다.
실제로 ‘챗GPT’ 같은 생성 인공지능(AI) 서비스가 우후죽순 등장하면서, 데이터 학습은 더 어려운 일이 되고 있다. 최근 챗GPT 개발사인 오픈AI도 인터넷에서 모은 정보로 AI를 훈련해 이용자의 프라이버시를 침해했다며 소송을 당하기도 했다.
|
현재 저작권법상에 있는 ‘공정 이용’ 조항만으론 AI가 저작물을 이용하기 어렵다는 지적도 나왔다. 이지은 김앤장 변호사는 이날 발제에서 “현재 저작권법에 공정 이용, 일시적 복제 등이 조항이 있지만 그것만으로는 부족하다는 게 일반적 견해”라며 “데이터 마이닝 근거 규정이 좀 더 빠르게 도입될 필요가 있다”고 했다.
김형준 한국지능정보사회진흥원 지능화법제도센터장은 “AI는 데이터를 상업적으로 활용하는데 공정 이용으로 분류해 이용하는 것이 맞는지 의문”이라고 지적했다. 좌장을 맡은 이성엽 고려대 교수도 “아직 미국에서도 학습용 데이터 이용에 대해선 공정 이용을 인정한 판례가 없다”고 했다.
이경선 정보통신정책연구원 박사는 AI 규제와 관련해 “신중한 접근이 필요한 상황”이라고 했다. 그는 “초거대 AI가 가져올 위험에 대응하는 것은 중요한 문제지만 한편으론 그런 위험성을 내포하는 AI 기술이 미국이나 중국 기업들을 중심으로 발전하는 것도 큰 위협”이라며 “이런 위험에 대응하면서 AI 주권을 확보해야 하기에 규제가 어려운 일이 되고 있다”고 했다.
이어 “초거대 AI 시대에 실질적인 위험 관리가 가능하도록 실효성 있는 규제 시스템을 수립하는 것이 중요하다”며 “기업에 너무 많은 것을 요구하기보다 민관이 함께 고위험을 규명하며 악의적 이용에 대응해 나가야 한다”고 강조했다.
엄열 과학기술정보통신부 인공지능기반정책관도 “국제적 규범 체계나 규제를 만드는 데 있어 놓쳐선 안 될 부분이 리더십”이라며 “참여하지 않으면 끌려가게 돼 있다. 우리가 주도적으로 규제 체계에 참여해 산업 발전에 누가 되지 않도록 리더십을 발휘할 필요가 있다”고 말했다.
AI로 개인정보 처리 환경이 크게 바뀌고 있다는 의견도 나왔다. 양청삼 개인정보보호위원회 개인정보정책국장은 “기존에는 정보 처리자와 정보 주체의 일정한 관계를 전제로 개인정보가 처리되는 환경이었다면, AI가 확산하면서 불특정 다수를 대상으로 하거나 공개된 정보를 갖고 데이터가 처리되는 경우가 많아 법적인 불확실성이 큰 상황”이라고 했다. 그는 “공개된 데이터의 개인정보 처리를 위한 일련의 방법과 기준 절차를 마련하고 있고 조만간 공개할 예정”이라고 했다.