"르네상스 화가의 ‘소실점’, 자율주행차의 눈이 되다"... UNIST, 원근법으로 세상을 인식하는 인공지능 개발

카메라 영상 왜곡 잡는 AI 모델 ‘VPOcc’ 개발… 저비용·고정확도 자율주행·로봇 비전 혁신 예고

염현철 기자 | 기사입력 2025/10/15 [15:28]

"르네상스 화가의 ‘소실점’, 자율주행차의 눈이 되다"... UNIST, 원근법으로 세상을 인식하는 인공지능 개발

카메라 영상 왜곡 잡는 AI 모델 ‘VPOcc’ 개발… 저비용·고정확도 자율주행·로봇 비전 혁신 예고

염현철 기자 | 입력 : 2025/10/15 [15:28]

▲ VPOcc과 기존 모델의 예측 결과 비교. 첫 번째 줄에서는 VPOcc만이 멀리 있는 나무의 형상을 예측하였으며, 두 번째와 세 번째 줄에서 VPOcc만이 겹쳐있는 차량을 효과적으로 구분해내는 것을 확인할 수 있다.(그림 및 설명=UNIST)  © 특허뉴스

 

르네상스의 원근법, 인공지능이 배우다

 

르네상스 화가들이 그림 속 깊이를 표현하기 위해 사용한 ‘소실점(vanishing point)’이 자율주행차의 눈을 더 똑똑하게 만들었다.

UNIST 인공지능대학원 주경돈 교수 연구팀은 카메라 기반 자율주행차의 인식 오류를 줄이기 위해, 소실점을 활용한 원근 보정 인공지능 모델 ‘VPOcc(Vanishing Point-based Occupancy model)’을 개발했다고 밝혔다.

 

이번 연구는 인공지능과 로봇 분야 세계적 학회인 IROS 2025(International Conference on Intelligent Robots and Systems) 에 채택됐으며, 앞서 삼성휴먼테크논문대상 은상을 수상해 학문적·산업적 의미를 모두 인정받았다.

 

카메라는 싸고 똑똑하지만, ‘거리감’엔 약했다

 

자율주행차와 로봇은 주로 라이다(LiDAR) 와 카메라를 이용해 주변 환경을 인식한다.

하지만 라이다는 고가이면서 무겁고 전력 소모가 크고, 반대로 카메라는 가볍고 저렴하지만 3차원 공간을 2차원 평면으로 투영하기 때문에 거리 왜곡이 심하다.

 

이로 인해 카메라 기반 인공지능은 가까운 물체는 과도하게 인식하고, 멀리 있는 사물은 희미하게 보거나 놓치는 문제를 겪는다. 즉, 도로 위에서 멀리서 다가오는 차량이나 보행자를 제대로 구분하지 못하는 한계가 있었다.

 

‘소실점’을 기준으로 본 세상… AI가 원근을 배운다

 

주경돈 교수팀은 인간의 시지각 원리를 응용했다.

소실점은 실제로 평행한 선들이 멀리서 하나로 모이는 것처럼 보이는 점으로, 르네상스 화가들이 깊이감과 입체감을 표현하기 위해 도입한 개념이다.

 

연구팀은 AI가 카메라 영상을 해석할 때 소실점을 기준으로 공간 정보를 재구성하도록 설계, 원근에 따른 왜곡을 보정할 수 있게 했다. 이를 구현한 VPOcc 모델은 세 가지 핵심 모듈로 구성된다.

 

소실점을 기준으로 영상을 보정해 원근 왜곡을 줄이는 모듈(VPZoomer), 멀고 가까운 영역에서 균형 잡힌 정보를 추출하는 모듈(VPCA), 그리고 원본과 보정 영상을 합쳐 서로의 약점을 보완하는 모듈(SVF)이다.

 

실험 결과, “멀리 있는 차량·보행자도 또렷하게 인식”

 

연구팀은 공개된 자율주행 벤치마크 데이터셋을 이용해 성능을 검증했다.

그 결과, VPOcc 모델은 기존 모델 대비 공간 인식 능력(mIoU)과 객체 복원 정확도(IoU) 모두에서 우수한 성능을 보였다.

 

특히 도로 환경에서 멀리 있는 객체나 겹쳐 있는 물체를 더 정확히 식별하며, 카메라 영상만으로도 라이다 수준의 공간 이해력을 구현했다.

이 성과는 저비용 카메라 기반 자율주행 및 로봇 비전 기술의 상용화 가능성을 크게 높인 것으로 평가된다.

 

“AI가 사람처럼 공간을 본다”… AR·로봇 비전까지 확장

 

김준수 연구원(제1저자)은 “사람이 공간을 인식할 때의 원근 감각을 AI에 접목하면, 3차원 구조를 훨씬 정확히 이해할 수 있다”며 “비싼 라이다 대신 카메라 센서로도 고품질 인식이 가능해, 자율주행차의 가격 경쟁력과 경량화에 큰 도움이 될 것”이라고 설명했다.

 

주경돈 교수는 “이번 기술은 자율주행과 로봇뿐 아니라, 증강현실(AR) 지도 제작·디지털 트윈·스마트시티 비전 시스템 등으로도 응용될 수 있다”며 “AI가 인간의 시각적 사고 원리를 학습한다는 점에서 ‘기계의 눈’이 사람처럼 진화하는 전환점이 될 것”이라고 말했다.

 

이번 연구는 UNIST 김준수 연구원이 제1저자로 주도했으며, 이준희 연구원(UNIST)과 미국 카네기멜론대학교 연구진이 참여했다. 

 

논문명은 VPOcc: Exploiting Vanishing Point for 3D Semantic Occupancy Prediction이다. 

이 기사 좋아요
  • 도배방지 이미지

광고
광고
광고