흐릿한 사진에 ‘인공지능’ 돌려보니

2016년 03월 18일 07:00
영화 ‘스타워즈’에 등장하는 로봇 ‘BB-8’. 인공신경망을 이용한 화질 개선 알고리즘을 흐릿한 사진(왼쪽)에 적용하자 색이 선명하고 선이 뚜렷한 고화질 사진(오른쪽)으로 바뀌었다. - 김지원 서울대 박사과정 연구원 제공
영화 ‘스타워즈’에 등장하는 로봇 ‘BB-8’. 인공신경망을 이용한 화질 개선 알고리즘을 흐릿한 사진(왼쪽)에 적용하자 색이 선명하고 선이 뚜렷한 고화질 사진(오른쪽)으로 바뀌었다. - 김지원 서울대 박사과정 연구원 제공

지난달 26일 미국의 유력 소셜네트워크서비스(SNS) 매체인 ‘레딧’ 게시판이 사진 한 장으로 들끓었다. 영화 ‘스타워즈’에 등장하는 로봇 ‘BB-8’의 흐릿한 사진을 선명하게 바꾼 뒤 2장을 비교해 올린 것이었다. 순식간에 댓글 수백 개가 달렸고 단숨에 머신러닝 분야 게시물 1위로 올라갔다.
 

이 게시물을 올린 주인공은 서울대 전기정보공학부 박사과정에 재학 중인 김지원 연구원. 그는 미국 매사추세츠공대(MIT)에서 수학과 전기컴퓨터공학으로 학부를 마친 뒤 컴퓨터공학으로 석사학위를 받았다. 김 연구원은 “저화질 이미지를 고화질로 바꾸는 새로운 알고리즘을 개발해 적용한 결과”라며 “알고리즘의 핵심은 딥러닝이 가능한 인공신경망”이라고 설명했다. 
 

디지털 파일로 된 사진을 원본보다 키우면 픽셀이 늘어나면서 형체가 뭉개지고 흐릿하게 바뀐다. 만약 사진이 처음부터 고화질이었다면 이런 문제는 생기지 않을 것이다. 김 연구원은 이런 점에 착안해 ‘심층 반복 복잡계 네트워크(DRCN)’를 개발했다. 인공신경망이 고화질이었을 때 픽셀이 어떤 색이었을지 추론하게 만든 것이다. 
 

김 연구원은 인공신경망 20층을 쌓아 픽셀이 인공신경망 한 층을 지날 때마다 추론값이 더 정확해지도록 설계했다. 그는 “인공신경망이 고화질 사진 전체를 학습하게 만드는 대신 고화질과 저화질 사진의 차이를 줄이는 방법을 학습하도록 알고리즘을 짰다”며 “그 덕분에 인공신경망의 추론 속도는 기존에 비해 1만 배가량 빨라졌다”고 말했다. 
 

지금까지 화질 개선 알고리즘에 인공신경망을 적용한 연구에서는 탕샤오어우 홍콩대 교수팀이 선두였다. 탕 교수팀은 지난해 인공신경망을 4층 이상 쌓는 것은 기술적으로 불가능하다고 결론 내렸다. 하지만 김 연구원은 이런 예상을 뒤집고 인공신경망을 20층까지 늘리는 데 성공했다. 
 

김 연구원은 지난해 11월 논문 초고 온라인 등록 사이트인 ‘아카이브(ArXiv.org)’에 논문 2편을 등록하며 이 같은 내용을 일찌감치 공개했다. 논문 한 편은 인공신경망을 20층까지 늘리는 기술을 다뤘고, 나머지 한 편은 추론의 정확도를 높이는 알고리즘을 소개했다. 이 내용은 6월 미국 라스베이거스에서 국제전기전자기술협회(IEEE) 주관으로 열리는 ‘2016 영상인식학회(CVPR)’에서 발표 논문으로 선정돼 공개를 앞두고 있다.  
 

논문 교신저자인 이경무 서울대 전기정보공학부 교수는 “고가의 카메라 장비로 촬영하지 않아도 고화질 영상을 얻을 수 있는 기술이라는 점에서 경제적”이라며 “폐쇄회로(CC)TV나 초음파 장비 등에서 얻은 저화질 영상도 고화질로 바꿔 상세한 정보를 얻을 수 있다”고 말했다. 
 

김 연구원은 현재 인공지능(AI)을 좋아하는 사람들의 모임인 ‘AI코리아’를 운영하고 있다. 그는 “미국의 경우 AI 분야는 온라인 커뮤니티를 중심으로 자유롭게 논문을 공유하고 토론하면서 기술을 발전시키는 분위기가 있다”며 “AI코리아를 통해 딥러닝 등 AI 기술을 자유롭게 토론하는 세미나를 개최하는 등 국내 AI 발전에 도움이 되고 싶다”고 밝혔다.

 

메일로 더 많은 기사를 받아보세요!

관련기사

인기기사

댓글

댓글쓰기

지금
이기사
관련 태그 뉴스