X

'클로바X'는 왜 재미없는 답을 할까…네이버가 알려줌

한광범 기자I 2024.04.12 17:29:57

[과기정통부 '글로벌 AI 안전 컨퍼런스']
"편향된 발언=엄청난 리스크, AI 안전성이 우선"
LLM 개발단계부터 '안전성 연구'에도 집중 투자
카카오도 '차별 경계 원칙'…AI 얼라이언스 가입

[이데일리 한광범 기자] “클로바X를 쓰시는 많은 분들이 왜 이렇게 재미없는 답변을 하느냐고 하시는 경우들이 있다. 그건…”

네이버의 자체 초대규모(Hyperscale) 언어모델인 하이퍼클로바X에 기반을 둔 대화형 에이전트(AI 챗봇)인 클로바X를 둘러싼 ‘부실 답변 논란’에 대해 네이버 고위 관계자가 공개적으로 답변을 했다.

네이버 최고경영자(CEO) 직속 AI 안전성 연구조직인 퓨처AI센터를 이끌고 있는 하정우 센터장은 12일 서울 삼성동 코엑스에서 열린 과학기술정보통신부 주최 ‘글로벌 AI 안전 컨퍼런스’ 키노트에서 직접 일각의 클로바X에 대한 불만을 언급했다.

11~12일 서울 코엑스에서 열린 과학기술정보통신부 ‘Gen AI Korea 2024’에 마련된 네이버 부스. (사진=이데일리)
하 센터장은 “그건(재미없는 답변은) 어쩔 수 없다”며 “네이버가 특정 편향된 발언을 하는 순간 굉장한 리스크에 직면하게 된다. 멍청해서가 아니다. 안전성을 중시하다보니 조금 더 심심하게 봐야 할 수도 있다”고 설명했다.

네이버는 2021년 전 세계에서 3번째로 거대언어모델(LLM)을 만드는 등 글로벌에서 주목받는 AI 기술을 보유하고 있지만, AI 적용 서비스에선 정치적·사회적 논란을 피하는데 최대한 집중해 왔다.

이는 네이버뿐 아니라 국내 AI 관련 기업들 대부분이 마찬가지다. 생성형 AI의 특성상 할루시네이션(환각현상)을 피할 수 없는 상황에서, 리스크를 피하기 위해 할루시네이션을 최소화하는 데 초점을 맞추다보니 결과적으로 전반적으로 ‘소극적 답변’으로 비춰지게 되는 것이다.

하 센터장은 “국가대표 AI기업으로서 네이버가 열심히 하고 있는 만큼, AI 안전성에도 엄청나게 신경을 많이 쓰고 있다”며 “2021년 하이퍼클로바 거의 완성단계에서 ‘AI가 정말 강력한데 잘못 사용하면 위험성이 있겠다’는 생각이 들어 굉장히 빠르게 안전성 부분에 대해 진행을 했다”고 말했다.

네이버는 이를 위해 다양한 분야의 전문가들과 함께 지속적 논의를 통해 사회적으로 민감한 질문들을 정리해 ‘데이터셋’을 만들었다. 특히 혐오표현 등 편향성을 드러내는 답변을 하지 않는 데에 중점을 뒀다.

카카오 역시 AI 안전성에 각별히 신경 쓰는 모습이다. 김경훈 카카오 AI 세이프티 리더는 “카카오는 2018년 국내 기업 최초로 알고리즘 윤리 헌장을 제정했다. 현재는 AI 시대에 맞게 업데이트를 지속적으로 진행하고 있다”며 “인류의 편익과 행복 추구와 함께 차별에 대한 경계의 원칙을 담았다”고 밝혔다.

카카오는 내부에 AI 서비스에 대한 검토 프로세스를 두고 있다. AI 관련 서비스가 만들어지고 출시되기까지의 전 과정에서 ‘이용자에게 안전하게 다가갈 수 있을지’에 대해 기업 내부의 다양한 파트에서 전방위적 검토를 진행한다.

김 리더는 “반복적 검토를 통해 리스크가 완화됐다고 판단될 때까지 그 같은 프로세스를 거친다”며 “리스크가 없다는 판단이 될 때에만 최종적으로 의사결정 테이블에 올라가게 된다”고 설명했다.

카카오는 지난 4일 글로벌 스탠다드에 부합하는 AI 개발을 위해, 국내 기업 중 최초로 글로벌 오픈 소스 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입 했다. AI 얼라이언스는 IBM을 주축으로 메타, 인텔 등 글로벌 기업과 학계 등의 단체 100여곳이 가입돼있다.

김 리더는 “글로벌 수준의 신뢰와 안전을 갖춘 개방적 AI 생태계 구축을 위해 AI 얼라이언스와 상호 협력해 나갈 것”이라며 “디지털 기업으로서 사회적 책임을 다하고 AI 윤리를 강화하기 위해 지속적으로 노력하겠다”고 말했다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지