이는 조 바이든 미국 대통령이 지난해 10월 서명한 ‘안전하고 신뢰할 수 있는 AI에 대한 행정명령’에 따른 후속 조치 일환이다. 기업의 AI 개발 및 활용에 대한 안전장치 마련을 의무화한 데 이어 이번엔 정부 기관의 AI 활용에 초점을 맞춘 것이다.
|
AI 활용시에는 그 내용을 대중에 투명하게 공개하고 부작용과 영향력에 대해 검증 및 모니터링을 하도록 하는 게 골자다.
이에 미국 내 대부분의 정부 기관은 올해 12월까지 업무에 활용하고 있는 AI 도구의 부작용 방지를 위한 구체적인 안전장치를 마련해야 한다.
또 각 정부 기관은 AI 기술 활용을 감시할 수 있는 숙련된 ‘최고 AI 담당관’(Chief AI Officer)을 채용해야 한다. 미 정부는 매년 각 기관이 활용하고 있는 AI의 분야 및 내용, 가능한 부작용 목록을 대중에 공개하는 것도 의무로 부과했다.
미 정부기관들은 공항 얼굴인식부터 전력망 관리, 대출, 보험, 의료, 날씨 등 각종 분야에서 AI 도구로 활용하고 있다.
만약 AI 안전장치를 도입하지 않은 기관들에 대해선 “기관 수장이 AI 시스템 사용을 중단했을 시 기관 업무에 심각한 장애가 초래되거나 안전 혹은 권리상 위험을 키울 것이라는 사유를 밝히지 못하는 이상 AI 사용을 반드시 중단해야 한다”고 백악관 측은 설명했다.
카멀라 해리스 미 부통령은 “앞으로 정부 기관들이 AI 도구를 사용하면 그 도구들이 미국인의 권리 및 안전을 위험하게 만들지 않는다는 사실을 입증하도록 요구할 것”이라고 설명했다.
다만 AI 무기 도입 등에 대해 추가 논의가 진행 중인 정보 당국과 국방부 등 일부 기관들은 이번 규칙 적용 대상에서 제외됐다.