|
“英·美·日 이어 한국도 AI안전연구소 가동…딥페이크·AGI 대응 박차
딥페이크는 ‘딥러닝(Deep Learning)’과 ‘가짜(Fake)’의 합성어로, 실제 인물의 얼굴이나 음성 등을 조작해 진짜처럼 보이게 만드는 기술을 의미한다. 이에 대응하기 위해서는 합성 여부를 구별할 수 있는 탐지 기술뿐 아니라, AI 에이전트가 악용되지 않도록 안전성을 강화하는 기술도 필수적으로 요구된다. 특히 범용인공지능(AGI)과 AI 에이전트 시대가 본격화될 경우, 예측하지 못한 새로운 형태의 피해가 발생할 가능성이 있어 AI 안전 확보는 더욱 중요해지고 있다.
영국, 미국, 일본 등 주요국은 이러한 위험에 대응하기 위해 AI안전연구소를 설립했으며, 우리나라도 글로벌 흐름에 맞춰 지난해 AI안전연구소를 출범시켰다. 현재 AI안전연구소는 딥페이크 탐지 기술과 AI 에이전트 안전성 평가 기술 개발에 착수한 상태다. 합성된 이미지의 진위 여부를 판별하고, 이를 동영상에도 적용하기 위한 방법을 연구 중이다. 또한 AI 에이전트에 악성 명령어가 주입되거나 이미지에 악성코드가 삽입되는 사례를 탐지하고, AI 시스템의 안전성을 실시간 평가하는 기술 개발도 병행하고 있다.
김명주 AI안전연구소장은 “생성부터 배포, 피해 발생까지 전 과정에서 안전성을 강화해야 하며 범부처 차원의 지원이 필요하다”며 “딥페이크 탐지와 에이전트 안전성 평가 기술을 실시간으로 구현할 수 있는 체계를 구축해 나가겠다”고 밝혔다.
정부는 AI안전연을 통해 안전 기술 개발을 가속화하는 동시에, AI 위험 대응과 신뢰성 확보를 위한 ‘(가칭) 국가 AI 안전 생태계 조성 종합계획’을 수립해 내년 시행되는 AI기본법과 연계해 추진할 계획이다.
배경훈 장관은 “민간 기업이 단독으로 수행하기 어려운 핵심 기술을 연구소가 선도적으로 개발하고, AI 에이전트 시대에 대비해 신뢰성 평가, 인증 체계 구축, 산업 현장 확산까지 함께 이루어져야 한다”고 강조했다. 그는 “AI가 유용한 도구인 만큼 그 이면의 위험에도 대비해, 국민이 안심하고 사용할 수 있는 개인형 AI 에이전트 환경을 조성하는 것이 중요하다”고 덧붙였다.
또한 배 장관은 “이제는 한국의 AI 기술력이 글로벌 수준을 증명해야 할 시점”이라며 “국내 AI 모델이 뛰어난 성능뿐 아니라 신뢰할 수 있는 안정적 체계를 갖출 수 있도록 제도적 기반을 마련하겠다”고 밝혔다. 이어 “최근 국가정보자원관리원 화재나 KT 소액결제 사고 등으로 정보보호 중요성이 더욱 강조된 만큼, AI 분야에서는 동일한 문제가 반복되지 않도록 안전 환경을 구축해야 한다”고 말했다.





