우리는 오랫동안 사람에게 이것을 요구해왔다. 신분증과 자격증, 서명, 인감, 과거의 호패. 누군가가 주장하는 이름과 실제 그 사람이 같은지를 끊임없이 들여다봤다. 문명이 복잡해질수록 이 확인의 방식은 정교해졌다. 그리고 그 정교함 위에 책임의 체계도 함께 쌓였다. 누가 했는지를 증명할 수 있어야, 무엇에 책임지는지를 물을 수 있기 때문이다.
그런데 AI 앞에서는 유독 이 원칙이 흐릿해진다. 기계니까, 도구니까. 사람이 시키는 대로만 움직일 것이라는 막연한 믿음이 확인의 필요성을 지워버린다.
바로 그 믿음이 더 큰 위협이 되는 시대가 오고 있다. 목표를 부여받은 뒤 스스로 판단하고 실행하는 ‘에이전틱 AI(Agentic AI)’가 본격적으로 조직 안으로 들어오고 있어서다. 이들은 메일을 보내고, 시스템에 접속하고, 계정을 생성하며, 결제를 승인한다. 사람이 자리를 비운 사이에도 멈추지 않고 작동하는 새로운 ‘행위자’인 셈이다.
|
문제는 이런 논의가 AI 도입 열기에 비해 지나치게 작다는 점이다. 그러나 이 안일함의 대가는 결코 가볍지 않다. 에이전틱 AI가 탈취될 경우 단순한 계정 침해를 넘어, 정상 업무로 위장한 채 내부 시스템을 돌아다니며 권한을 조용히 확장하는 방식으로 이어질 수 있다. 인증이 없으면 추적할 수 없고, 추적할 수 없으면 책임도 물을 수 없다.
필요한 것은 새로운 원칙이 아니다. 사람에게 적용해온 검증과 책임의 체계를 에이전틱 AI에도 그대로 확장하는 일이다. 신원을 확인하고, 권한을 제한하며, 행위를 추적할 수 있어야 한다.
이를 가능하게 하는 기술적 기반도 이미 준비돼 있다. 위·변조가 불가능한 신원 증명과 행위 이력을 연결하는 블록체인 기반 분산신원인증(DID)은 AI 시대의 책임 구조를 설계할 수 있는 가장 현실적인 해답이다.
시간이 많지 않다. 에이전틱AI는 이미 화면 밖으로 나오고 있다. 로봇이 공장을 움직이고, 자율주행차가 도로를 달리고, 드론이 하늘을 난다. 디지털 권한의 실패는 더 이상 화면 속 오류로 끝나지 않는다. 검증되지 않은 AI의 권한 하나가 공장을 멈추고, 물류를 흔들며, 사람의 안전까지 위협할 수 있다.
그때 가서 ‘AI가 한 일’이라는 말은 면죄부가 되지 않는다. 누가 그 AI에게 권한을 줬는지, 어디까지 허용했는지, 무슨 명령을 내렸는지. 책임은 결국 설계한 사람에게 돌아온다. 책임의 재정의란 생각보다 거창하지 않다. AI의 행위를 인간의 결정으로 추적할 수 있는 구조를 갖추자는 얘기다.
돌이켜보면 인증과 책임은 원래 하나였다. 확인할 수 있어야 물을 수 있고, 물을 수 있어야 막을 수 있다.
재차 묻는다. 우리는 AI의 신분증을 확인했는가.




![‘1:59:30' 마라톤 2시간 벽 깬 화제 속 러닝화는[누구템]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/04/PS26042700874t.jpg)
