인간이 AI를 통제할 수 있어야…‘어시스턴스 게임 모델' 언급한 러셀 교수

by김현아 기자
2021.12.12 17:49:56

인간의 선호도 배우는 로봇
선호도와 다르게 행동하거나 모를때 인간에게 결정넘겨
오프 스위치의 등장..PR2 로봇으로 연구중

[이데일리 김현아 기자]

지난 10일 KAIST가 주최한 AI 국제심포지엄에서 기조연설자로 스튜어트 러셀 UC버클리대 전기공학 및 컴퓨터과학과 교수가 온라인으로 참여했다.


“인공지능(AI)이 어떠한 업무 환경에서도 고급 행동을 빨리 배울 수 있게 된 다음은 어떻게 될까요? 아마 제품과 서비스가 지구에 있는 사람들의 목표를 충족시킬 수 있을 만큼 무제한으로 제공되겠죠. 고도의 생활 수준, 건강, 교육, 과학들이 발전해 굉장히 보수적으로 잡아도 세계 GDP가 10배가 상승할 겁니다. 하지만 인종편향 같은 리스크도 생깁니다. ”

지난 10일 KAIST가 주최한 AI국제심포지어에서 기조연설자로 참석한 스튜어트 러셀 UC버클리대 전기공학 및 컴퓨터과학과 교수는 AI가 가져다 주는 유익함만큼 위험성도 있다고 언급했다.

그는 이날 ‘증명 가능한 유익한 인공지능’이라는 제목으로 기조연설을 했는데, 인간에게 유익한 새로운 종류의 AI 개발이 필요하다는 내용이었다.

러셀 교수는 영상을 통해 인간을 흉내내는 AI를 보여준 뒤 “다 사람처럼 보이지 않느냐? 그런데 사실은 누구도 사람이 아니다. 그래서 EU에서는 이런 식의 인간을 사칭하는 AI의 행동을 금지하고 있다”고 말했다.

그렇다면, 기술이 계속 발전해서 AI 시스템이 실제 세계에서의 사람보다 더 나은 의사결정을 할 수 있게 되면 어떻게 될까?

이 때에도 우리는 우리보다 더 강력한 주체가 된 AI보다 더 많은 힘을 사람으로서 가져갈 수 있을까?

이에 대해 러셀 교수는 “AI에 대한 우리의 생각을 바꾸면 가능하다”고 답했다. 바로 인간에게 유익한 새로운 종류의 AI 개발을 통해서다.

그는 “기존에 있는 AI에 대한 접근법에 약간 변형을 가져왔다”면서 “우리는 머신의 행동이 인간의 목표를 달성할 것으로 예상할 수 있어야 한다. 그런 상황을 머신이 배우는 것이 중요하다”고 설명했다.

스튜어트 러셀 교수가 제안한 모델은 다음과 같다. 그는 이를 ‘어시스턴트 게임 모델’이라고 불렀다.



기본 원칙은 다음과 같다. ① AI시스템은 인간이 좋아하는 걸 충족시켜줘야 한다(다양한 선호도를 충족할 수 있는 로봇 개발)②실제로 인간이 좋아하는 것에 대해 불확실성을 가진(정확히 모르는) 로봇이 개발될 수 있다 ③인간은 인간이 선호하는 것에 대한 증거를 제시해야 한다는 것 등이다. 러셀 교수는 “이 세 가지에 대해 우리는 어시스턴트 게임이라는 모델로 해결책을 만들 수 있다”고 설명했다.

즉, AI시스템은 일단 인간의 선호도를 배우지만 인간이 선호하지 않는 방식으로 행동을 취하려 하거나, 인간이 선호하는 걸 모를 때, 인간에게 그 의사결정을 넘기는 모델이다. 그는 “이리 되면 AI 시스템의 지능이 좋아질수록 결과는 인간에게 더 나을 것”이라고 말했다.



러셀 교수는 ‘어시스턴트 게임 모델’에 대해 설명하면서 오프 스위치 개념도 등장시켰다.

그는 자신의 연구소에 있는 PR2라는 로봇을 소개하면서 오프 스위치가 뒤에 있다고 설명했다. 오프 스위치를 둔 이유는 인간이 추론하길 원치 않는 방향으로 머신(AI)이 추론하는걸 막기 위해서라고 했다.

한 로봇이 있다. 로봇은 ①내(AI)가 커피를 가져와야 한다고 하면 ②만약 내(AI)가 죽었다면 커피를 가져올 수 없다고 추론하고 ③그렇기 때문에 나(AI)는 오프 스위치를 불능해야 한다고 생각할 수 있다고 설명했다. 이는 인간이 자기 보호가 아니라 커피를 가지고 오는 것을 로봇(AI)의 목표로 넣었기 때문이다. 그런데 인간이 죽으면 역시 커피를 가져올 수 없어 ④로봇은 고객들을(인간들을) 테이저건으로 쏴야겠다고 생각할 수도 있다고 설명했다.

러셀 교수는 “우리는 이 때 이 머신이 오프 스위치를 하는 걸 원하지 않는다”면서 “만약에 로봇이 ‘내가 뭔가를 잘못하면 인간이 나를 끌 것’이라거나 ‘내가 뭘 잘못한지는 모르지만 내가 그걸 하고 싶지 않다. 그러니 인간이 나를 끄게 하겠다’고 AI가 생각하게 하고 이를 수리적으로 만들면 증명적으로 사람들에게 유익한 AI가 될 수 있다”고 설명했다.

그는 “위의 연구는 다양한 방식으로 진행되고 있다”면서 “인간의 의사결정에서 다양한 상충관계가 있을 수 있고, 머신간 간섭이 일어나면 안된다. <양립할 수 있는 인간>이라는 책에서 좀 더 자세히 담았다”고 부연했다.

또 “지금 말씀드린 것은 AI 윤리와 직접 관련 있는 것은 아니다. 우리가 높은 품질의 AI를 만들어야 실제로 증명 가능하고 인간에게 유익함을 제공해줄 수 있다”고 말했다.