"인간의 뇌 닮은 AI반도체 첫 개발…엔비디아 독점 깰 수 있다"
by최영지 기자
2024.04.08 05:45:01
[이데일리가 만났습니다]
유회준 카이스트 AI반도체대학원장 인터뷰①
칩 하나로 초고속 LLM 구현 가능…초저전력 장점
"온디바이스 AI뿐 아니라 데이터센터 활용 가능"
GPU와 달리 AI에 더 최적화…"새 시장 열릴 것"
[이데일리 최영지 기자] “모두가 뇌 전체를 모방하려고 할 때 뇌의 정보처리 방식을 구현하는 데 집중했다. 뇌가 데이터를 처리할 때 일부만 구동하는 것에 착안한 만큼 초고속에 저전력이라 할 수 있다. 그래픽처리장치(GPU)와 달리 온디바이스 인공지능(AI) 가동에 최적화한 반도체다.”
| 유회준 카이스트 AI반도체대학원장(신임 반도체공학회장)은 본지 인터뷰에서 “이번에 개발한 상보형 트랜스포머의 장점은 어디에든 붙여서 바로 사용할 수 있다는 점”이라며 “AI폰 사용량이 늘어나면 활용 범위가 더욱 확대될 것”이라고 했다. (사진=김태형 기자) |
|
유회준 카이스트 AI반도체대학원장(카이스트 전기전자공학부 교수)은 최근 서울 강남구 반도체공학회 사옥에서 진행한 이데일리와 인터뷰에서 세계 최초 개발한 AI반도체 ‘상보형-트랜스포머’에 대해 이렇게 설명했다. 이 반도체는 4.5㎜×4.5㎜ 크기의 작은 칩으로 인간의 뇌 신경을 반도체로 구현한, 쉽게 말해 ‘뇌를 닮은 초전력 AI반도체’다. 유 교수가 이끄는 연구팀은 상보형 트랜스포머를 삼성전자의 파운드리(반도체 위탁생산) 공정을 통해 개발해 화제를 모았다.
유 교수는 “기존 연구자들이 뇌 자체를 모방하는 것을 새의 깃털에 비유한다면, 우리 팀은 새의 나는 원리를 구현하는 것에 치중했다”며 “과학보다 공학 영역에 집중한 것으로 뉴로모픽(인간 뇌의 동작 방식을 모방해 디자인한 반도체) 컴퓨팅 기술을 통해 뇌 심층 신경망을 모방했다”고 설명했다.
이번에 개발한 AI반도체는 스파이킹 뉴럴 네트워크(SNN·뇌의 뉴런이 스파이크라는 시간에 따른 신호를 사용해 정보를 처리하는 방식)와 심층 인공 신경망(DNN·시각적 데이터 처리에 사용되는 딥러닝 모델)을 혼합해 입력 데이터의 크기에 따라 서로 다른 신경망에 할당해 전력을 최소화하는 기술이다.
| 유회준 카이스트 AI반도체대학원장(신임 반도체공학회장)은 본지 인터뷰에서 “이번에 개발한 상보형 트랜스포머의 장점은 어디에든 붙여서 바로 사용할 수 있다는 점”이라며 “AI폰 사용량이 늘어나면 활용 범위가 더욱 확대될 것”이라고 했다. (사진=김태형 기자) |
|
그는 반도체 이름인 상보형 트랜스포머에 대해선 “SNN와 DNN 결과값을 보여주기 위해 옆으로 대치시켰고 이 상보 형태의 모양에서 이름을 따 왔다”며 “SNN과 DNN을 선택적으로 사용해 트랜스포머 기능을 구현한다”고 했다. GPT-2 모델을 통한 제품 시연까지 마쳤다. AI반도체 한 개로 초저전력만 소모하면서도 초고속으로 대형언어모델(LLM)을 구현할 수 있다는 이론이 실제 작동한다는 것을 공식화한 것이다.
유 교수는 “이같은 장점을 토대로 온디바이스 AI뿐 아니라 데이터센터에 충분히 활용할 수 있다”며 “GPU를 대체할 수 있기에 고대역폭메모리(HBM) 경쟁은 의미가 없어질 수 있고 새로운 구도의 AI반도체 시장이 구현될 것”이라고 전망했다.
유 교수는 민관을 망라한 ‘AI전략최고위협의회’에 경계현 삼성전자 DS부문장 사장, 유영상 SK텔레콤 사장, 최수연 네이버 사장 등과 함께 이름을 올린 AI 분야의 석학으로 꼽힌다. 올해부터는 제7대 반도체공학회장직까지 겸하고 있다.
| 유회준(오른쪽 두 번째) KAIST AI반도체대학원 교수 연구팀이 상보형 트랜스포머를 삼성전자 28나노 공정을 통해 개발했다고 밝히며 시연하고 있다. (사진=연합뉴스) |
|
△AI반도체에 처음 관심을 가진 건 2000년대 초였다. 우연히 해외 뇌 연구에 관심을 갖게 됐고 그때 공학적 사고 관점에서 뇌를 모방한 반도체, 즉 AI반도체를 만들어야겠다는 생각을 했다. 이후 2015년에 딥러닝을 기반으로 한 알파고가 나오며 AI반도체 연구 경쟁이 시작됐다. 뇌 자체를 모방하는 게 힘들었기에 이를 과감하게 포기했다. 뇌가 스파이크 형태로 신호를 주고받는 것과 스파이크 신호가 발현될 때만 뇌의 일부분을 동작시키는 것 등 뇌의 작동 원리를 구현하는 데에만 집중했다.
△중앙처리장치(CPU)나 GPU는 정보 중요도에 상관없이 모든 입력값에 연산을 필요로 한다. 반면 우리 AI반도체는 두뇌처럼 스파이크 신호가 발현될 때만 뇌의 일부분만 동작시켜 정보를 처리한다. 이를 사건기반형이라고 한다. GPU 등 AI반도체는 연산이 복잡하니 그만큼 전력 소모도 크다. 반면 우리 제품은 이를 해결할 수 있어 전력 소모가 작은 데다 뇌 전체가 아닌 일부만 사용하면 돼 연산 속도는 더욱 빠르다. 엔비디아의 GPU(A100)와 비교해 전력 소모를 625배 줄일 수 있다.
△개발 발표 이후 가장 많이 받은 질문이다.(웃음) 지금껏 연구만 해왔기에 당장 상용화 계획은 생각을 못했다. 다만 상보형-트랜스포머 기술을 제품으로 만들고 싶다는 연락은 환영한다. 이 AI반도체의 장점 중 하나는 어디에든 붙여서 바로 사용할 수 있다는 점이다. 상용화 초저전력 구현이 가능한 만큼 온디바이스 AI에 적합하다. 최근 시연했을 때처럼 GPT에 꼽아 사용할 수 있고, 향후 AI폰 사용량이 늘어나면 활용 범위가 더욱 확대될 것이라고 본다. 전력 사용량이 방대해 물리적 제약을 갖는 데이터센터에도 칩 크기를 키워 충분히 활용 가능하다.
△GPU는 게임용 반도체다. H100부터 AI용으로 바뀌고 있지만 (블랙웰 역시) 전력 소모가 크고 고성능인 구조 자체를 바꾸진 못했다. 개인 모바일(온디바이스 AI) 데이터 연산에 GPU처럼 무조건 복잡한 계산을 할 필요가 없다. 필요한 부분만 연산을 하면 되기에 메모리 요구량과 연산량이 적을 수밖에 없다. 결국 GPU가 AI에 최적화한 반도체는 아니라는 것을 반증하는 것이다. 엔비디아의 AI반도체 독점 구조도 깰 수 있을 것으로 본다. 이 경우 HBM과 같은 고성능 메모리는 필요가 없어진다. 엔비디아 GPU의 대안이 확실하게 나타나면 메모리반도체 업체 간 HBM 경쟁이 의미가 없어질 가능성도 있다.
△2006년부터 연구한 모든 노하우가 들어간 기술이다. 기간은 4년에 불과하지만 다양한 기술을 반도체에 담아 금방 흉내 내지는 못할 것이다. 그 중에서도 여러 단계로 데이터를 압축시킨 저전력 구현의 핵심 기술들이 들어 있다. 심층신경망에 이어 뉴로모픽 반도체 연구가 활성화할 것으로 예상한다. 뉴로모픽 컴퓨팅 기술 정확도를 올리는 방법을 고민 중이다.
△서울대 전자공학과 △카이스트 전기공학 석·박사 △미국 벨 연구원 △SK하이닉스 반도체연구소 D램설계실장 △카이스트 전기전자공학과 교수 △한국차세대컴퓨팅학회장 △반도체공학회장