인공지능 핵심 GPU 메모리 성능 181% 끌어 올린다

2021.08.02 13:00
정명수 KAIST 전기및전자공학부 교수 연구팀
KAIST 연구진이 제안한 ′옴GPU′ 기술 로고. KAIST 제공.
KAIST 연구진이 제안한 '옴GPU' 기술 로고. KAIST 제공.

인공지능(AI) 시스템을 구현하는 데 핵심적인 ‘그래픽 프로세싱 유닛(GPU)’의 메모리 시스템을 특성이 서로 다른 ‘이종 메모리’와 ‘광 네트워크’를 활용해 메모리 용량과 대역폭을 대폭 끌어올린 기술이 개발됐다. 

 

정명수 KAIST 전기및전자공학부 교수 연구팀은 ‘3D XPoint 메모리’와 D램 메모리를 통합한 이종 메모리 시스템에서 광 네트워크로 통신하는 이른바 ‘옴-지피유(Ohm-GPU)’ 기술을 개발하는 데 성공했다고 2일 밝혔다. D램만을 사용한 전기 네트워크 기반의 GPU 메모리 시스템 대비 성능이 181% 향상됐다. 3D XPoint 메모리는 D램에 비해 용량이 크지만 데이터 전송 속도가 느린 메모리를 말한다. 

 

기존 GPU는 다수의 연산 장치로 구성돼 연산 속도가 매우 빠르다는 게 장점이다. 그러나 D램을 단독으로 사용하는 메모리 시스템의 메모리 용량이 낮고 데이터 전송 대역폭이 좁아 연산 성능을 충분히 활용하지 못한다는 문제가 있다. 

 

GPU의 메모리 용량을 증가시키기 위해 D램을 3D XPoint 메모리로 대체하는 방법이 있지만 메모리의 읽기·쓰기 성능이 낮아진다. 대역폭을 증가시키는 대안으로 ‘HBM(High Bandwidth Memory)’ 기술을 활용할 수 있지만 단일 면적 내 장착할 수 있는 전기 채널(구리 선) 개수 한계로 GPU 메모리 시스템이 요구하는 고대역폭을 만족하기도 쉽지 않다. 

 

연구팀은 대용량 3D XPoint 메모리와 고성능 D램을 통합한 이종 메모리 시스템을 적용해 기존 메모리 시스템과 성능을 동일하게 유지하면서 메모리 용량을 높였다. 광 신호가 전달되는 광 섬유도 적용해 서로 다른 파장의 다중 광신호를 전달할 수 있는 광 네트워크의 장점을 활용해 메모리 대역폭을 대폭 넓혀 기존 GPU 메모리 시스템의 한계를 개선했다. 

 

연구팀이 개발한 옴-GPU 기술은 GPU 내부 메모리 컨트롤러 및 인터페이스를 수정해 이종 메모리의 모든 요청을 광신호로 처리한다. 이 때 메모리 요청은 일반적으로 D램 캐시 메모리에서 처리되지만 D램에 없는 데이터는 3D XPoint 메모리에서 읽어와야 한다. 

 

연구팀은 이 과정에서 발생하는 이종 메모리 간 데이터 이동 대기시간을 줄였다. 연산용 메모리 접근과 데이터 전송용 메모리 접근의 광 파장을 다르게 설정하고 메모리 컨트롤러 개입을 최소화한 덕분이다. 

 

연구팀이 개발한 옴-GPU 기술은 기존 D램을 단독으로 사용하는 전기 네트워크 기반 GPU 메모리 시스템에 비해 그래픽 처리, 응용프로그램 실행 등에서 성능이 181% 향상됐다. 정명수 교수는 “인공지능과 빅데이터, 클라우드컴퓨팅 등 대용량·고대역폭의 데이터 전송이 필요한 고성능 메모리 시스템에 적용 가능할 것”으로 기대했다. 

 

이번 연구성과는 올해 10월에 열릴 컴퓨터 구조 분야 학술대회인 ‘마이크로, 2021’에서 발표될 예정이다. 

메일로 더 많은 기사를 받아보세요!

댓글 0

작성하기

    의견쓰기 폼
    0/150