"1년도 안됐는데"…오픈AI, '장기 위험' 연구팀 해체

by방성훈 기자
2024.05.19 16:53:18

작년 올트먼 축출 주도한 공동창업자 사임 직후 해산
사내 정치 이유 추정…팀원들은 다른 팀으로 재배치
팀 이끌었던 임원, 사직후 "안전 뒷전으로 밀려" 비판

[이데일리 방성훈 기자] ‘챗GPT’ 개발사인 오픈AI가 인공지능(AI)의 장기적인 위험에 초점을 맞춘 연구팀을 해체했다. 구성한지 1년도 지나지 않은 팀인 데다, 과거 약속을 뒤집는 조치여서 내부 비판이 제기된다.

(사진=AFP)


CNBC는 17일(현지시간) 소식통을 인용해 오픈AI가 슈퍼얼라이먼트 팀을 해체하고 소속 팀원들을 여러 다른 팀으로 재배치했다고 보도했다. 이 팀은 오픈AI가 ‘초지능 AI’의 위험에 대비하기 위해 지난해 7월 만든 곳이다.

당시 오픈AI는 슈퍼얼라이먼트 팀에 대해 “AI 시스템을 훨씬 더 스마트하게 조종하고 제어하기 위한 과학적, 기술적 혁신에 중점을 둘 것”이라고 소개하며 향후 4년 동안 컴퓨팅 성능의 20%를 이 팀의 계획에 투입할 것이라고 밝혔다.



하지만 불과 1년도 지나지 않아 팀이 해체되면서 다양한 추측이 제기된다. CNBC는 해체 소식이 지난해 샘 올트먼 오픈AI 최고경영자(CEO) 해임을 주도했던 공동 창업자 겸 수석 과학자인 일리야 수츠케버가 회사를 떠난 직후에 전해졌다는 사실에 주목하며, 사내 정치가 영향을 미친 것으로 분석했다.

이런 상황에서 오픈AI가 AI의 위험성을 외면하고 있다는 비판이 제기됐다. 슈퍼얼라이먼트 팀을 이끌다가 수츠케버와 함께 사직한 얀 레이케는 엑스(X·옛트위터)를 통해 “오픈AI는 인류 전체를 대신해 (AI의 안전 및 위험과 관련해) 막중한 책임을 지고 있다. 하지만 안전 문화와 프로세스는 빛나는 제품보다 뒷전으로 밀려나게 됐다”고 비꼬았다.

그는 또 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력”이라며 “나는 오픈AI가 이러한 연구를 하기에 가장 좋을 것으로 생각해 합류했으나, 오랫 동안 경영진은 핵심 우선순위에서 의견을 달리 했다”고 지적했다.

이에 그렉 브록먼 오픈AI 공동 창업자는 엑스 계정에 자신과 올트먼 CEO 명의의 성명을 게재하며 “범용인공지능(AGI)으로 가는 길에 대한 입증된 플레이북은 아직 없다. 오픈AI는 위험과 기회에 대한 인식을 높여 전 세계가 AGI에 더 잘 대비할 수 있도록 했다”고 반박했다. 이어 “각국 정부 및 여러 이해관계자들과 안전과 관련해 협업을 지속하고 있다”고 덧붙였다.