10일 힌턴 교수는 니혼게이자이신문과의 인터뷰에서 “AI에게 목표를 주면 해결책으로서 인간에게 나쁜 방법을 찾아낼지도 모른다”며 이같이 말했다.
|
다만 그는 “누구도 AI가 지배하는 미래를 원하지 않는다”며 “그 사실이 각국이 AI 병기 규제를 향해 보조를 맞추는 토대가 될 것”이라고 덧붙였다.
힌턴 교수는 “생성형 AI의 기반인 거대 언어 모델은 우리와 마찬가지로 말을 이해하고 있다고 생각한다”고 밝혔다.
그러면서 자신은 AI가 농담을 이해하는지를 판단의 기준으로 삼는다면서 2022년 구글이 개발한 언어모델(PaLM)에 의한 챗봇을 상대로 농담을 설명해달라고 했을 때 챗봇은 그 농담이 왜 재미있는지 모두 설명했다고 전했다.
이와 관련해 그는 “철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장이 있지만 그건 틀렸다”며 “언어는 태어난 뒤에 학습하는 후천적인 것이라고 생각한다”고 설명했다.
또 “주관적인 경험이라는 관점에서 보면 AI는 인간과 같은 감각도 가질 수 있다고 생각한다”고 덧붙였다.
힌턴 교수는 딥러닝 기술을 개척해 인공지능 대부로 불리는 전문가다. 그는 토론토대 교수 시절 창업한 AI업체 ‘DNN리서치’가 2013년 구글에 인수된 뒤 구글 소속으로 연구 활동을 계속하다가 지난 해 4월 AI의 위험성을 알리기 위해 사표를 낸 것으로 알려져 있다. 이후 그는 캐나다에 머물며 AI의 위험성을 적극적으로 경고하고 있다.