유럽연합(EU)의 입법기구인 유럽의회가 지난 13일 본회의에서 ‘인공지능(AI)법’을 통과시켰다. 세계 최초의 포괄적 AI 규제법으로 AI 기술 개발과 응용 전반을 대상으로 하고 있다. 6개월 뒤부터 부분적으로 적용되기 시작하며 2026년에 전면적으로 시행된다. AI 기술 발전이 인간과 사회에 초래하는 위험을 통제하기 위한 법이다. 몇 년 전부터 AI의 위험에 대한 경고가 잇따르면서 세계적으로 AI 규제법 제정 논의가 본격화했는데 그 첫 열매가 유럽에서 맺어진 것이다. 우리도 국회에 10여개 AI 관련 법안이 발의됐으나 제대로 심의되지 못한 채 계류 중이다.
인간의 학습·추론·지각 등의 능력을 컴퓨터 등 기계에 인공적으로 구현시키는 AI 기술은 ‘양날의 칼’이다. 인간의 지능을 지원해 확대·강화함으로써 삶을 간편하면서도 풍요롭게 만들어줄 수 있지만, 다른 한편으로는 삶에 혼란을 일으킬뿐더러 누군가의 악의와 결합해 범죄 수단이 될 수 있다. 최근 세계 각국에서 생성형 AI를 악용해 만들어진 딥페이크 콘텐츠가 여론조작을 통해 선거 등 민주주의 절차를 왜곡하는 게 한 예다. 더 나아가 AI가 윤리 의식이 없는 기계적 존재인 탓에 비윤리적 명령에 맹종하거나 오작동으로 피해를 줄 수 있다.
EU의 AI법은 이런 AI의 위험을 ‘허용될 수 없는 위험’, ‘고위험’, ‘제한된 위험’, ‘저위험’의 4단계로 나눠 각각에 상응하는 규제를 가하도록 하고 있다. 예컨대 얼굴 촬영을 통해 정치·종교적 신념을 알아내는 AI 기능은 ‘허용될 수 없는 위험’으로 분류돼 11월부터 금지된다. 딥페이크는 ‘제한된 위험’에 속하며 여기에는 이용자들이 알아차릴 수 있게 하는 표시 부착이 의무화된다. 미국은 의회에서 AI법을 제정하지는 않았으나 조 바이든 대통령이 지난해 10월 AI 산업 발전 정책과 규제 조치를 동시에 담은 행정명령에 서명했다.
우리도 미적거릴 때가 아니다. 유럽연합이 선도하는 AI 규제 글로벌 스탠더드에 보조를 맞추지 않으면 관련 분야 교역에서 불이익을 당할 수 있다. 그렇다고 규제만이 능사는 아니다. AI의 산업적·전략적 측면을 고려해 미국처럼 산업 발전과 위험 통제 사이에서 나름의 균형점을 찾아야 한다.