센서를 이루는 소자인 광트랜지스터의 구조 / 사진. UNIST
로봇이나 자율주행 시스템이 어두운 곳에서도 사물의 윤곽을 정확히 인식할 수 있는 뇌 모방형 비전 센서가 국내 연구진에 의해 개발됐다. 이 센서는 영상 데이터 전송량은 줄이면서도 인식 정확도는 높여, 차세대 인공지능 기반 비전 시스템의 핵심 기술로 주목받고 있다.
UNIST(울산과학기술원)는 6월 4일(수), 신소재공학과 최문기 교수팀이 한국과학기술연구원(KIST) 최창순 박사, 서울대학교 김대형 교수와 공동으로 도파민-글루타메이트 신경 전달 원리를 모방한 ‘시냅스 모방형 로봇 비전 센서’를 개발했다고 밝혔다.
비전 센서는 기계의 ‘눈’으로, 센서가 감지한 정보를 프로세서가 해석해 환경을 인식한다. 하지만 기존 시스템은 조도 변화나 명암 대비가 큰 환경에서 비효율적인 정보 전달로 인해 인식 성능이 떨어지는 한계가 있었다.
연구팀은 사람 뇌에서 도파민이 글루타메이트 신호를 조절하며 중요한 정보를 강조하는 원리에 착안해, 입력 시각 정보 중 명암 대비가 뚜렷한 ‘윤곽선’ 정보만을 선별적으로 처리할 수 있도록 센서를 설계했다. 최문기 교수는 “센서 자체에 뇌의 일부 기능을 부여한 인-센서 컴퓨팅 기술로 영상 데이터를 스스로 조절하고 불필요한 정보를 걸러낸다”라며 “초당 수십 기가비트의 데이터를 처리하는 로봇 비전 시스템의 부담을 줄이는 데 핵심 역할을 할 것”이라고 말했다.
센서는 빛에 반응하는 광트랜지스터와 게이트 전압 조절 구조로 구성된다. 여기서 게이트 전압은 도파민처럼 반응 강도를 조절하고, 출력 전류는 글루타메이트의 역할을 한다. 특히 밝기가 급변하는 경계에서는 출력이 강해져 윤곽선을 또렷하게 감지할 수 있으며, 일정한 밝기의 배경은 억제된다.
실험 결과에 따르면, 이 센서는 기존 대비 영상 전송량을 약 91.8% 줄이고도, 객체 인식 정확도는 86.7%까지 끌어올릴 수 있었다. 어두운 환경에서도 민감하게 윤곽을 감지할 수 있는 점은 자율주행과 드론 기술에서 큰 장점이 된다.
최창순 박사는 “이번 기술은 자율주행차, 드론, 로봇, 사물인터넷(IoT) 기기 등 다양한 플랫폼에 폭넓게 활용될 수 있다”라며 “데이터 처리 속도와 에너지 효율을 모두 개선할 수 있는 인공지능 비전 기술의 전환점이 될 것”이라고 말했다.
한편, 이번 연구는 한국연구재단 우수신진사업, KIST 미래원천반도체기술개발사업, 기초과학연구원 등의 지원을 받아 수행됐으며, 연구 성과는 5월 2일(금) 국제 학술지 사이언스 어드밴시스(Science Advances)에 온라인 게재됐다.