|
앞서 오픈AI는AI 위험을 연구하는 안전팀 슈퍼얼라이먼트를 신설한 지 1년을 채우지 못하고 해체했다. 지난해 7월 신설한 슈퍼얼라이먼트 팀은 인간과 동등한 수준의 지능을 갖춘 범용인공지능(AGI)의 위험성 관리 등 AI가 인간에게 해롭지 않은 방식으로 작동하는 기술을 연구해왔으나 최근 팀 해체가 이뤄졌다. 수츠케버 등 관련 인력들은 팀 해체 전후 회사를 잇따라 떠나고 있다.
딥마인드 출신 라이케도 수스케버 퇴사 발표 직후 팀을 떠났다. 그는 X에 “인간보다 훨씬 똑똑한 AI 시스템을 조종하고 제어하는 방법을 시급히 알아내야 하기 때문에 이 일에서 물러나는 것은 내가 한 일 중 가장 어려운 일 중 하나였다”고 썼다. 그러면서 “오픈AI는 전 인류를 대신해 막중한 책임을 짊어지고 있음에도 지난 몇 년 동안 안전 문화와 프로세스는 반짝이는 제품 뒷전으로 밀려났다”고 비판했다.
앤트로픽에서 새 둥지를 튼 그는 “확장 가능한 감독, 약점에서 강점으로의 일반화, 자동화된 정렬 연구를 수행할 것”이라고 밝혔다.
업계에선 슈퍼얼라이먼트 팀 해체와 관련해 오픈AI가 안전한 AI를 강조하는 이들을 밀어냈다는 분석도 나온다. 샘 올트먼 오픈AI 최고경영자가 AI 기술 개발과 상업화 추진에 무게를 두고 안전성 문제를 소홀하게 여긴 것 아니냐는 비판도 제기됐다.
CNBC는 “2022년 말 오픈AI가 챗GPT를 도입하며 생성형 AI 제품과 투자의 붐을 일으킨 이후 AI 안전은 기술 부분 전반에 걸쳐 중요해졌다”면서 “업계 일각에서는 기업들이 잠재적인 사회적 해악을 충분히 고려하지 않고 강력한 AI 제품을 대중에게 너무 빨리 출시하는 것에 대해 우려하고 있다”고 짚었다.