연구 결과, 세계적인 학회 OSDI에서 발표

UNIST 컴퓨터공학과 이슬기 교수(왼쪽)와 정이수 연구원(제1저자). UNIST 제공
국내 연구진이 딥러닝 인공지능(AI) 모델을 실행 가능한 프로그램으로 바꾸는 데 걸리는 시간을 절반 이상 줄인 기술을 개발했다.
12일 울산과학기술원(UNIST)에 따르면 이슬기 컴퓨터공학과 교수팀은 ‘오토튜닝’ 과정을 최대 2.5배 빠르게 할 수 있는 기법을 개발했다.
AI 모델이 실제로 작동하려면 컴퓨터 연산 장치가 이해할 수 있는 형태로 다시 바꾸는 ‘컴파일’ 과정이 필요하다.
오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연산 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다.
그러나 사례에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모가 많다는 문제가 있었다.
이에 이 교수팀은 딥러닝 모델 안에서 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것이다.
이 방식을 오토튜닝 프레임워크에 적용한 결과, 같은 성능의 실행 코드를 생성하는 데 걸리는 속도가 중앙처리장치(CPU) 기준 평균 2.5배, 그래픽처리장치(GPU) 기준 평균 2배 빨라졌다.
이슬기 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐 아니라 전력 소모도 줄일 수 있다”고 말했다.
이 연구 결과는 지난달 7일부터 사흘간 미국 보스턴에서 열린 컴퓨터 시스템 분야 학회인 OSDI(Operating Systems Design and Implementation)에서 발표됐다.
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지