美서 대박난 AI 여자친구 '카린', 한국선? …AI윤리 걱정 스타트업
by김현아 기자
2023.07.18 05:31:31
노골적인 성 관련 대화 요구 논란에도 미국선 인기
국내선 쉽지 않아..보수적인데다 인증제도 까다로워
스타트업들, 선정성, 편향성 논란 걱정
AI윤리에 둔감한 프랑스 허깅페이스
진단키트나 찾아오는 변호사 서비스 해달라
[이데일리 김현아 기자]
| 미국의 여성 인플루언서인 카린 마저리(23)가 GPT-4 응용프로그램으로 만든 AI 음성 챗봇인 ‘카린 AI’. 1분에 1달러(1267원)짜리 음성 챗봇 서비스인데, 출시 첫주에 10만달러(1억 2670만원)가 넘는 매출을 기록했다. 이용자 중 98%는 남성이며, 서비스 이용 대기자가 수천 명 수준으로 전해진다. |
|
미국에서 대박 행진을 이어가는 AI 여자친구 ‘카린’ 같은 AI챗봇이 한국서도 나올 수 있을까.
‘카린AI’는 미국에서 팔로워 185만명을 가진 인플루언서 카린 마저리가 오픈AI의 GPT-4 응용프로그램에 자신의 음성과 성격 등을 학습시켜 만든 AI음성 챗봇이다. 출시 첫주에 10만 달러(1억2670만원)가 넘는 매출을 올리는 등 인기지만, AI여자친구라는 컨셉이 ‘선정성’ 논란에 휘말렸다. 노골적인 성 관련 대화를 요구하는 사람도 있어서다.
그런데, 우리나라에선 ‘카린AI’ 같은 서비스를 스타트업이 내놓기는 불가능한 현실이다. 미국보다 보수적이고, 미성년자 인증제도가 까다로운 이유에서다.
지난 10일 서울대 인공지능 정책 이니셔티브가 네이버와 함께 주최한 ‘신뢰가능한 초거대AI: 플랫폼과 스타트업간 협력’ 세미나에서 이크림 김선엽 대표는 “AI보조 작가 서비스를 하는데 재미를 추구하니 몇 가지 고민이 있다”면서 “소위 막장 드라마가 인기인데 이를 프롬프트로 입력하면 엔진 자체가 부정적이 될 수 있어 이를 조절할 방법이 고민”이라고 했다.
그러면서 “최근엔 게임 업체와 협업할 기회가 있었는데, 인공지능으로 19금 스토리를 만들어달라는 것이었다”면서 “회사 모토와 달라 거절했으나 선정성에 어디까지 한계를 둬야 할지 고민”이라고 했다. 그는 “편향성도 걱정된다. 작가들이 표절을 날카롭게 생각해 저작권은 항상 신경 쓴다”고 했다.
| 혐오발언과 개인정보 무단 활용 논란으로 서비스가 종료된 국산 AI챗봇 ‘이루다’ |
|
또 다른 스타트업 관계자는 “우리나라에선 미성년자 인증제도가 까다로워 인증시 구글 아이디를 쓰게 됐다”면서 “네이버나 카카오 플랫폼이 아닌 텔레그램에서 챗봇 서비스를 준비하는 곳도 있다”고 전했다.
방송통신위원회나 개인정보보호위원회가 미성년자 인증제도나 개인정보 활용을 엄격하게 보는데, 국내 기업이 타깃이 되는 경우가 많기 때문이다.
2021년 스캐터랩이 개발한 ‘이루다’는 편향성 논란에 시달리다 개인정보위원회로부터 ‘카카오톡 대화’를 무단 수집했다는 이유로 1억330만원의 과징금을 받기도 했다.
이에 따라 스타트업들은 방을 폭파하면 복구되지 않고 보안이 강력한 텔레그램에서 챗봇 서비스를 준비하기도 한다. AI윤리 부담은 줄어드는 반면, 지적재산권은 지킬 수 있다는 시각 때문이다.
반면 인공지능 모델계의 깃허브(프로그램 공유 사이트)로 불리는 허깅페이스(Hugging Face)는 AI 윤리를 크게 신경쓰지 않는다.
허깅페이스 출신인 조은서 박사는 “허깅페이스는 프랑스에서 창업해 2조 달러의 기업가치를 가진 오픈소스 플랫폼”이라면서 “20만 개 정도의 AI 모델이 오픈소스로 제공되는데, 이중 콘텐츠가 문제 되는 모델들도 올라오나 체크할 방법이 없다”고 전했다.
국내 스타트업들은 AI윤리가이드라인 준수 여부를 스타트업들이 스스로 테스트해볼 수 있는 진단키트나, 찾아오는 변호사 서비스가 필요하다고 입을 모았다. 스타트업들의 서비스는 규제 샌드박스를 통해 ‘일단 해보도록’ 허용해 달라고도 했다.
김선엽 대표는 “국회에 올라간 AI법안에는 정부가 윤리원칙을 제정해 공포할 수 있게 돼 있는데 그것만 지키면 되는 가 의문도 있다”면서 “지금은 기술과 서비스에 집중하나 앞으론 윤리가 사업에 가장 발목을 잡을 것 같다. 스타트업들의 서비스는 규제샌드박스에 넣어 일단 보호해 달라”고 했다. 이어 “비즈니스 모델별로, 카테고리별로 윤리에 대한 정의가 필요하다. 진단키트가 있었으면 한다”고 부연했다.
류덕민 앱플랫폼 소장은 “시골에 가면 변호사님들이 동사무소에 소속돼 멘토를 해주는 프로그램이 있다고 하더라”면서 “스타트업들은 자문받을 곳이 없으니 ‘찾아오는 변호사 서비스’나, ‘AI윤리 인증 프로그램’이 있었으면”이라고 말했다.
임용 서울대 인공지능 정책 이니셔티브 디렉터(서울대 법학전문대학원 교수)는 “법률 자문 바우처도 생각할 수 있겠다”고 말했다.
박상철 서울대 교수는 “AI윤리에 대해 정부가 많은 검토를 하는 것으로 안다”면서 “우리의 AI법은 EU식이 아니라 맥락을 중시하는 영국과 스위스, 일본, 미국식으로 가야 한다”고 언급했다. 그러면서 “모두 자율에 맡기자는 건 아니다. 법적 규제는 핀셋형으로 집어서 하는 게 중요하다. 중요한 것은 생성형 AI를 활용한 일상보조, 문명 소멸 문제 해결이 아닌가”라고 했다.