|
최근 연속 학습은 훈련 비용을 줄이도록 프롬프트(prompt) 기반 방식이 대세를 이루고 있다. 작업에 특화된 지식을 프롬프트에 저장한다. 적절한 프롬프트는 입력 데이터에 추가한뒤 심층신경망에 전달해 과거 지식을 활용한다.
연구팀은 기존 방식과 달리 작업 간 변화에 적응할 수 있는 적응적 프롬프팅(adaptive prompting)에 기반한 연속 학습 기술을 제안했다. 현재 학습하려는 작업이 기존에 학습했던 작업과 유사하다면 새로운 프롬프트를 생성하지 않고 그 작업에 할당된 프롬프트에 추가로 지식을 축적한다.
이미지 분류 문제에 대해 방법론을 검증한 결과, 기존 프롬프트 기반 연속 학습 방법론에 비해 작업 간 변화 정도가 큰 환경에서는 최대 14%의 정확도를 높였다. 작업 간 변화가 클 수도 있고 작을 수도 있는 환경에서는 최대 8%의 정확도를 향상시켰다.
제안한 방법에서 유지하는 클러스터 개수는 실제 유사한 작업의 그룹 개수와 거의 같은 것으로 나타났다. 온라인 클러스터링을 수행하는 비용도 작아 대용량 데이터에도 적용할 수 있다.
이재길 교수는 “연속 학습 분야의 새로운 지평을 열 만한 획기적인 방법”이라며 “앞으로 실용화와 기술 이전이 이뤄지면 심층 학습 학계와 산업계에 효과를 줄 수 있다”고 말했다.
연구 결과는 지난 달에 국제학술대회 ‘국제머신러닝학회(ICML) 2024’에서 발표됐다.