韓·美·英 등 첨단 AI 출시 전 안전성 테스트 거치기로 합의
by박종화 기자
2023.11.03 11:10:10
英 AI 안전 정상회의서 합의…中은 빠져
AI 안전성 보고서도 매년 간행
韓, 내년 AI 안전 가상 정상회의 주관
[이데일리 박종화 기자] 한국과 미국, 영국 등 주요국들이 첨단 인공지능(AI)을 출시하기 전 안전성 테스트를 거치기로 뜻을 모았다.
2일(현지시간) 파이낸셜타임스 등에 따르면 주요국 대표들은 이날 영국 블레츨리파크에서 열린 AI 안전 정상회의에서 AI 위험성 관리를 위해 첨단 AI 서비스를 출시하기 전 안전성 테스트를 실시하기로 합의했다. 안전성 테스트가 의무는 아니지만 마이크로소프트(MS)와 구글, 아마존, 오픈AI 등 AI 업계 주요 기업들도 이번 논의에 참여해 AI 안전성 테스트를 위해 정부와 협력을 강화하기로 했다. 다만 중국은 관련 논의가 이뤄진 두 번째 회의에 초청되지 않아 합의에서 빠졌다.
잭 클라크 앤스로픽 창업자는 “우리는 계속 자체적인 (안전성) 테스트를 할 것”이라면서도 “우리가 테스트를 의뢰하고 결과를 들을 수 있는 적법한 제3의 기관이 있었으면 좋겠다”고 이번 정상회의 결과를 설명했다. 영국 정부 AI태스크포스는 이번 정상회의를 계기로 주요 AI 모델의 안전성을 평가했는데 허위 정보 유포나 사이버 공격, 생화학무기 제조 등에 악용될 수 있는지를 들여다본 것으로 알려졌다.
각국 대표는 AI 안전성에 관한 연례 보고서를 작성할 국제 전문가 패널을 구성하자는 데도 뜻을 모았다. 초대 패널 의장을 맡은 요슈아 벤지오 몬트리올대 교수는 “그동안 AI 역량을 향상하기 위한 대규모 투자를 이뤄졌지만 AI 연구나 거버넌스 측면에서 AI가 모두를 위해 개발되도록 하는 데는 충분한 투자가 이뤄지지 않았다”면서 전문가 패널이 이 같은 측면을 중점적으로 살펴볼 것이란 걸 시사했다.
1~2일 이틀간 열린 이번 회의는 AI 안전을 단독 주제로 열린 첫 번째 정상회의다. 첫날 발표된 블레츨리 선언에서 각국 대표들은 AI 안전성 확보를 위해 국제사회가 협력해야 한다고 합의했다. 이번 정상회의 성과를 확인하기 위한 미니 화상 정상회의는 내년 5월 한국이 주최하기로 했다.
이번 정상회의를 계기로 AI 규제를 둘러싼 각국의 주도권 경쟁도 심화할 것으로 보인다. AI 규제는 표준 문제와도 맞닿아 있기 때문이다. 특히 개최국인 영국은 AI 안전 연구소 설립을 발표하며 앞으로도 관련 논의를 주도하겠다는 뜻을 밝혔다. 이번 주 AI 안전성 확보를 위한 행정명령을 내놓은 미국도 영국과 별도로 관련 연구소를 세우기로 했다.
한편 리시 수낵 총리는 이번 행사를 계기로 일론 머스크 테슬라 최고경영자(CEO)와 AI에 관해 대담했다. 이 자리에서 머스크는 AI를 “역사상 가장 파괴적인 힘”이라면서 “(인간의) 어떤 직업도 필요치 않게 되는 때가 올 것”이라고 말했다. 머스크는 AI 안전을 위해 미국와 중국, 영국 등의 협력이 중요하다고도 강조했다.