|
뇌·기계 인터페이스는 인간이 생각만으로 기계를 제어할 수 있는 기술이다. 팔을 움직이는 데 장애가 있거나 절단된 환자가 로봇 팔을 제어해 일상에 필요한 팔 동작을 회복할 수 있는 보조기술이다.
로봇 팔 제어를 위한 뇌·기계 인터페이스를 구현하려면 인간이 팔을 움직일 때 뇌에서 발생하는 전기신호를 측정하고 기계학습 등 인공지능 분석기법으로 뇌 신호를 해독해 의도한 움직임을 뇌 신호로부터 예측하는 디코딩 기술이 있어야 한다. 상지 절단으로 운동장애를 겪는 환자의 경우, 팔을 움직이기 어렵기 때문에 상상만으로 로봇 팔의 방향을 지시할 수 있어야 한다.
뇌 신호 디코딩 기술은 팔의 움직임이 아닌 상상 뇌 신호에서 어느 방향으로 사용자가 상상했는지 예측할 수 있어야 하는데 이 신호로는 팔을 움직이기 위한 신호대잡음비가 낮아 정확한 방향을 예측하기 어려웠다.
연구팀은 사용자의 팔 동작 상상을 공간해상도가 우수한 대뇌 피질 신호로 측정하고, 변분 베이지안 최소제곱 기계학습 기법을 활용해 직접 측정하기 어려운 팔 동작의 방향 정보를 계산하는 기술을 개발했다. 운동피질을 비롯한 특정 대뇌 영역에 국한되지 않아 사용자마다 다를 수 있는 상상 신호와 대뇌 영역 특성을 학습해 최적의 계산 결과를 낼 수 있다.
시연 결과, 환자가 상상한 팔 뻗기 방향을 최대 80% 이상의 정확도로 예측했다. 계산모델을 분석해 방향 상상에 중요한 대뇌의 시공간적 특성을 밝혔고, 상상하는 인지적 과정이 팔을 실제 뻗는 과정에 근접할수록 방향 예측정확도가 높아질 수 있다는 사실을 확인했다.
정재승 교수는 “장애인마다 다른 뇌 신호를 맞춤형으로 분석해 오랜 기간 훈련을 받지 않더라도 로봇 팔을 제어할 수 있는 결과”라며 “앞으로 의수를 대신할 로봇팔 상용화에 기여할 수 있다”고 말했다.
연구 결과는 뇌공학 분야 국제 학술지 ‘저널 오브 뉴럴 엔지니어링(Journal of Neural Engineering)’에 9월 19권 5호에 게재됐다.