UPDATED. 2024-04-25 11:30 (목)
 실시간뉴스
서울대 공대 전병곤 교수팀, 데이터 증강 시스템 ‘리뱀퍼’ 개발
서울대 공대 전병곤 교수팀, 데이터 증강 시스템 ‘리뱀퍼’ 개발
  • 이광희 기자
  • 승인 2021.05.12 11:00
  • 댓글 0
이 기사를 공유합니다

학습 모델 품질 유지하며 데이터 재사용 가능한 새로운 시스템, 세계 선도
머신러닝 모델 학습 시, 기존 방식 대비 최대 2배의 학습 속도 향상
서울대 공대 전병곤 교수 연구진. (왼쪽부터) 이경근 석사과정, 신안재 석사과정, 이계원 박사과정, 전병곤 교수, 하현민 박사과정, 현화림 학사과정 [서울대 공대 제공]
서울대 공대 전병곤 교수 연구진. (왼쪽부터) 이경근 석사과정, 신안재 석사과정, 이계원 박사과정, 전병곤 교수, 하현민 박사과정, 현화림 학사과정 [서울대 공대 제공]

서울대학교 공과대학(학장 차국헌)은 컴퓨터공학부 전병곤 교수팀이 데이터 증강(Data Augmentation) 과정을 최적화하여 머신러닝 학습 수행 시 기존 시스템 대비 최대 2배 빠른 속도로 수행하는 리뱀퍼(Revamper) 시스템을 개발했다고 12일 밝혔다. 해당 시스템을 통해 다양한 분야에서 보다 효율적인 인공지능 학습 수행이 가능할 것으로 기대한다.

데이터 증강은 학습 데이터에 임의의 변환 연산을 적용함으로써 실질적인 학습 데이터의 수를 증가시키는 것을 말한다. 데이터 증강은 인공지능 학습 모델의 정확도를 높이지만 학습의 속도를 저하시킨다는 문제가 있다.

학습 속도 저하 문제를 해결하기 위해 전병곤 교수 연구진은 새로운 데이터 캐싱[1] 시스템인 리뱀퍼를 개발하였다. 구글에서 제안한 기존 방식은 최종 증강한 표본을 일정 횟수 재사용하여 학습 속도를 향상시켰지만 모델의 정확도는 저하되었다.

이와 달리 전병곤 교수 연구진은 학습된 모델의 정확도 저하 없이 표본을 재사용하는 데이터 리퍼비싱(Data Refurbishing) 기법을 제안하였다. 데이터 리퍼비싱은 데이터 증강 과정을 두 부분으로 나누어 부분적인 데이터 증강 연산이 적용된 표본들을 일정 횟수 재사용하고, 학습에 사용하기 전에 나머지 증강 연산을 수행하는 방식으로 모델 정확도 저하 문제를 해결하였다.

연구진은 리버비싱 방식을 효율적으로 지원하기 위해 재사용하는 표본들을 여러 학습 스텝에서 고르게 사용하는 새로운 캐싱 시스템인 리뱀퍼를 구현하였다. 리뱀퍼는 파이토치(PyTorch)[2] 데이터 로더 대비 최대 2배 빠른 인공지능 학습 속도를 제공한다. 리뱀퍼는 개발 시 사용자의 편의성을 고려하여 설계했으며 기존에 사용하던 파이토치 모델을 리뱀퍼를 이용해 빠르게 수행할 수 있다. 연구진은 리뱀퍼를 파이토치 사용자들이 활용할 수 있도록 공개할 계획이다.

이 연구 결과는 오는 7월 컴퓨터 시스템 분야에서 권위 있는 학회 USENIX ATC(Annual Technical Conference)에서 발표될 예정이다.

전병곤 교수는 이번 개발에 대해 “세계를 선도하는 인공지능 플랫폼 기술을 연속해서 발표하게 되어 기쁘다. 앞으로 프렌들리에이아이(friendli.ai)를 통해 초대형 인공지능을 만들어 서비스로 제공하겠다“라고 소감을 전했다.

[Queen 이광희 기자]


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.