"챗GPT 등 AI서비스 실태점검"…정부, AI 신뢰성 구축 나선다
by김가은 기자
2023.07.27 16:13:32
개인정보위, 챗GPT 등 주요 AI서비스 실태점검
하반기 전 대상과 기준 확립해 추진
필요한 경우 오픈AI 등 글로벌 기업 현장조사까지 추진
| 남석 개인정보보호위원회 조사조정국장이 27일 오전 정부서울청사 3층 합동브리핑룸에서 ‘메타 아일랜드, 인스타그램 LLC, 메타 Inc 및 오픈AI의 개인정보보호 법규 위반행위에 대한 시정조치’건을 브리핑 하고 있다.(사진=개인정보보호위원회) |
|
[이데일리 김가은 기자] 정부가 인공지능(AI) 윤리와 신뢰성 확보에 속도를 내고 있다. AI 윤리와 개인정보 보호 원칙 등을 담은 ‘AI법’ 제정을 지원하겠다고 밝힌 데 이어, 주요 AI서비스에 대한 안전성 점검에 나선다.
27일 개인정보보호위원회는 하반기 중 챗GPT를 포함한 AI서비스들을 대상으로 사전 실태점검에 나서겠다고 밝혔다. 지난 3월 챗GPT를 포함한 주요 국내외 AI서비스를 대상으로 개인정보 침해를 최소화하기 위한 조치 현황 등을 살피겠다는 의도다. 챗GPT 외에 점검 대상이 될 서비스 목록이나 평가 기준 등은 아직 마련되지 않았다. 다만 이번 처분이 국내가 아닌 글로벌 서비스에 가해진 점을 감안하면 마이크로소프트(MS)나 구글이 포함될 가능성도 있다.
남석 개인정보위 조사조정국장은 “아직까지 구체적으로 대상이 확정되지는 않았다”며 “주요 AI 서비스를 대상으로 할 것이고, 하반기 실태 점검 전까지 대상과 중점 점검 항목을 만들겠다”고 설명했다.
개인정보위가 오픈AI를 제재하고, 실태점검을 계획하게 된 계기는 지난 3월 발생한 챗GPT 유료 서비스 ‘챗GPT 플러스’ 이용자 정보 유출 사고다. 피해자 중 한국인 이용자 687명이 포함돼 있었기 때문이다. 유출된 정보는 성명, 이메일, 결제지, 신용카드 번호 4자리와 만료일 등이다.
이에 개인정보위는 오픈AI에 과태료 360만원 처분을 내렸다. 전문가 검토를 거친 결과 오픈AI가 일반적으로 취해야할 보호조치를 소홀히 하진 않았다는 점을 감안해 안전조치 의무 위반이 아닌 신고 의무 위반을 적용한 결과다.
하지만 오픈AI를 비롯한 글로벌 기업들이 정부 실태점검에 적극 협조할지는 알 수 없다. 당장 처분을 받았던 오픈AI만 해도 개인정보위가 침해요인 점검을 위해 요청한 자료를 정확히 제출하지 않았다. 한국어 학습데이터 출처, 윤리 문제 예방 노력, 수집 거부 방법 등에 대해 일반적·포괄적 수준으로만 설명해 명확한 분석이 어려웠던 것으로 나타났다. 오픈AI 측이 협력하겠다는 의사를 전달해온 상황이지만, 만약의 경우 개인정보위는 필요한 경우 현장조사까지 진행한다는 계획이다.
남 국장은 “오픈AI 측에서 국내 대리인을 지정해 소통 창구를 마련했다”며 “적극 협력하겠다는 의사를 표명해왔다”고 말했다. 이어 “필요하면 현장조사도 할 수 있을 것”이라고 덧붙였다.
이처럼 최근 정부는 AI 신뢰성 확보에 공을 들이고 있다. 특히 과학기술정보통신부는 산업 육성과 더불어 AI 위험성과 윤리성을 논의하는 ‘AI 윤리정책 포럼’ 등 다양한 작업을 병행 중이다. 뿐만 아니라 지난 2월 국회 상임위원회 법안소위를 통과해 국회에 계류 중인 ‘AI 산업 육성 및 신뢰 기반 조성 등에 관한 법률안’ 제정을 적극 지원하겠다고 밝히기도 했다.
이 법안에는 사생활과 개인정보 보호 사항 준수 등 AI가 지켜야 할 5대 기본원칙과 기본권 침해 금지, 공공선 침해 금지 등 AI서비스 개발·제공 사업자 책임을 강화하는 6개 윤리 기준 등이 담겨있다. AI에 대한 법적 테두리를 제시해 신뢰성을 높이기 위한 기반인 셈이다.
최동원 과기정통부 AI기반정책과장은 “국회에서 논의되고 있는 인공지능법은 고위험영역 AI에 대한 정의와 사업자들의 책무를 강화하는 내용으로, 그런 식의 고민을 하고 있다”며 “AI서비스나 제품의 위험요인을 분석, 공신력 있는 제3 기관을 통해 검·인증하는 체계를 준비 중에 있다”고 말했다.