KAIST, ‘버벅임’의 근원을 지우다... 엔비디아보다 2.1배 빠른 AI 추천 기술 탄생

AI 추론의 90% 병목 ‘데이터 전처리’ 세계 최초로 해결

박진석 기자 | 기사입력 2026/02/08 [00:32]

KAIST, ‘버벅임’의 근원을 지우다... 엔비디아보다 2.1배 빠른 AI 추천 기술 탄생

AI 추론의 90% 병목 ‘데이터 전처리’ 세계 최초로 해결

박진석 기자 | 입력 : 2026/02/08 [00:32]

▲ (좌)하드웨어 프로토타입 (우)제안하는 오토GNN 기술의 개요(그림 및 설명=KAIST)  © 특허뉴스

 

유튜브 영상 추천이나 금융 사기 탐지처럼 사람과 사물 간 복잡한 관계를 실시간으로 분석하는 서비스의 핵심에는 그래프 신경망(GNN)이 있다. 하지만 이 기술은 빠른 연산 능력을 갖춘 GPU를 사용해도 실제 서비스 환경에서는 ‘버벅임’이 발생해 왔다. 전체 AI 추론 시간의 70~90%를 차지하는 데이터 전처리 단계가 병목으로 작용했기 때문이다.

 

이 난제를 KAIST 연구진이 세계 최초로 해결했다. KAIST는 전기및전자공학부 정명수 교수 연구팀이 그래프 신경망 기반 AI의 전처리 병목을 제거한 적응형 AI 반도체 기술 ‘오토GNN(AutoGNN)’을 개발했다고 밝혔다.

 

기존 GPU 기반 AI 가속기는 그래프 데이터처럼 불규칙한 연결 구조를 가진 입력을 처리할 때 효율이 급격히 떨어진다. 연구팀은 문제의 핵심이 연산 자체가 아니라, 추론 이전 단계에서 관계 데이터를 정리·압축하는 그래프 전처리 과정에 있음을 규명했다. 이 과정은 계산량이 크지만, 범용 GPU 구조로는 최적화가 어려웠다.

 

연구팀이 제안한 오토GNN은 입력 데이터의 구조에 따라 반도체 내부 회로가 실시간으로 스스로 재구성되는 적응형 AI 가속기다. 필요한 데이터만 선별하는 UPE 모듈과 이를 빠르게 집계·정리하는 SCR 모듈을 칩 내부에 구현해, 데이터의 크기와 연결 방식이 달라져도 항상 최적의 처리 경로가 자동으로 적용된다. 그 결과 전처리 단계에서 발생하던 구조적 병목이 근본적으로 해소됐다.

 

성능 평가에서 오토GNN은 NVIDIA의 고성능 GPU(RTX 3090) 대비 처리 속도 2.1배 향상, 일반 CPU 대비 9배 빠른 성능을 기록했다. 동시에 에너지 소모는 3.3배 절감해, 속도와 전력 효율을 동시에 개선하는 성과를 입증했다.

 

이번 기술은 영상·콘텐츠 추천 시스템, 금융 사기 탐지, 보안 분석 등 대규모 관계 데이터를 실시간으로 처리해야 하는 AI 서비스에 즉시 적용 가능하다. 특히 데이터 구조에 맞춰 하드웨어가 스스로 최적화되는 방식은, 차세대 AI 반도체 설계 패러다임을 바꿀 핵심 기술로 평가된다.

 

정명수 교수는 “불규칙한 데이터 구조를 효율적으로 처리할 수 있는 유연한 하드웨어를 구현했다는 점에서 의미가 크다”며 “추천 시스템뿐 아니라 금융·보안 등 지연 시간이 치명적인 AI 서비스 전반에 폭넓게 활용될 것”이라고 밝혔다.

 

이번 연구 성과는 컴퓨터 아키텍처 분야 최고 권위 학회인 IEEE International Symposium on High-Performance Computer Architecture 2026에서 2월 4일 발표되며, 차세대 AI 반도체 기술 선점 경쟁에서 한국 연구진의 존재감을 각인시켰다.

 

논문명은 AutoGNN: End-to-End Hardware-Driven Graph Preprocessing for Enhanced GNN Performance이다.

  • 도배방지 이미지

그래프신경망, AI반도체, 데이터전처리, 실시간추천, 에너지효율, KAIST 관련기사목록
광고
광고
광고