챗GPT 열풍으로 IT 기업들의 인공지능(AI) 개발 경쟁이 치열한 가운데, 기업에 생성형 AI 설계 단계부터 안전성을 담보할 것을 주문하는 개발 가이드라인이 미국과 영국 주도로 체결됐다.
이 가이드라인에는 미국과 영국뿐 아니라, 한국을 포함한 독일, 이탈리아, 체코, 에스토니아, 폴란드, 호주, 칠레, 이스라엘, 나이지리아, 싱가포르 등 18개국이 서명했다. AI 규제 방안을 두고 다자간 합의가 마련된 건 이번이 처음이다.
미국 사이버보안 및 인프라보안국(CISA)과 영국 국립사이버보안센터(NCSC)는 ‘안전한 AI 시스템 개발을 위한 가이드라인’이란 문서를 공개했다. 총 20쪽 분량의문서에는 AI 제품 설계부터 배포에 이르기까지 개발 전 과정은 기술 오용으로부터 인간을 보호하는 방식으로 이뤄져야 한다는 기본 원칙을 담았다.
이를 위해 기업들은 △기술 남용 여부를 모니터링하고 △데이터 변조를 방지해야 하며 △소프트웨어 납품업체를 심사하는 한편 △적절한 보안 테스트를 거친 뒤 새 제품을 출시해야 한다. 권한 없는 사용자가 민감한 데이터셋을 유출하지 못하게 막는 방법이나, AI 시스템이 설계된 대로 작동하기 위한 기술적 지침을 명기했다. AI 및 머신러닝(ML) 시스템을 표적으로 삼는 적대적 공격에 대처하는 것도 목표로 삼았다.
가이드라인인 만큼, 법적인 구속력이 있는 것은 아니다. 젠 이스털리 CISA 국장은 로이터와의 인터뷰에서 “이는 얼마나 빨리 시장에 출시할 수 있는지 또는 비용을 낮추기 위해 경쟁할 수 있는지에 관한 문제가 아니다”라며 “설계 단계에서부터 가장 중요한 것은 보안이라는 데 각국이 동의한 것”이라고 설명했다.
한국에선 국가정보원이 가이드라인 파트너사로 참여했다. 국정원은 지난 4월 ‘한미 전략적 사이버안보 협력 프레임워크’와 및 11월 ‘한영 전략적 사이버 파트너십’ 체결 등 연이은 정상 간 사이버안보 협력 토대를 조성한 바 있다. 국정원 백종욱 3차장은 “국정원은 주요국들과 사이버안보 파트너십 바탕으로 AI 등 신기술 등장에 따른 신종 공격 위협에 적극 대응할 것”이라고 밝혔다.