
< (왼쪽부터) 전산학부 김민수 교수, 박힘찬 박사 >
우리 대학 연구진이 오늘날 정보통신(IT) 분야에서 광범위하게 사용되는 그래프 타입의 데이터를 실제로 저장하지 않고도 알고리즘을 계산할 수 있는 `그래프 프로세싱 시뮬레이션'이라는 신개념 기술을 세계 최초로 개발하는 데 성공했다. 데이터를 저장할 필요가 없어 1조 개 간선의 초대규모 그래프도 PC 한 대로 처리가 가능하다.
우리 대학 전산학부 김민수 교수 연구팀은 1조 개 간선의 초대규모 그래프에 대해 데이터 저장 없이 알고리즘을 계산할 수 있는 신개념 기술을 세계 최초로 개발했다고 23일 밝혔다.
오늘날 웹, SNS, 인공지능, 블록체인 등의 광범위한 분야들에서 그래프 타입의 데이터에 대한 다양한 알고리즘들의 연구가 매우 중요하다. 그러나 그래프 데이터의 복잡성으로 인해 그 크기가 커질 때 막대한 규모의 컴퓨터 클러스터가 있어야만 알고리즘 계산이 가능하다는 문제가 있다.
김 교수 연구팀은 이를 근본적으로 해결하는 T-GPS(Trillion-scale Graph Processing Simulation)라는 기술을 개발했다. 이 T-GPS 기술은 그래프 데이터를 실제로 디스크에 저장하지 않고도 마치 그래프 데이터가 저장돼 있는 것처럼 알고리즘을 계산할 수 있고, 계산 결과도 실제 저장된 그래프에 대한 알고리즘 계산과 완전히 동일하다는 장점이 있다.
그래프 알고리즘은 그래프 처리 엔진 상에서 개발되고 실행된다. 이는 산업적으로 널리 사용되는 SQL 질의를 데이터베이스 관리 시스템(DBMS) 엔진 상에서 개발하고 실행하는 것과 유사한 방식이다.
지금까지는 그래프 알고리즘을 개발하기 위해 먼저 합성 그래프를 생성 및 저장한 후, 이를 다시 그래프 처리 엔진에서 메모리로 적재해 알고리즘을 계산하는 2단계 방법을 사용했다. 그래프 데이터는 그 복잡성으로 인해 전체를 메모리로 적재하는 것이 요구되며, 그래프의 규모가 커지면 대규모 컴퓨터 클러스터 장비가 있어야만 알고리즘을 개발하고 실행할 수 있다는 커다란 단점이 있었다.
김 교수팀은 합성 그래프와 그래프 처리 엔진 분야에서 국제 최고 권위의 학술대회에 매년 논문을 발표하는 등 세계 최고의 기술력을 보유하고 있으며, 그 기술들을 바탕으로 기존 2단계 방법의 문제를 해결했다.
그래프 데이터상에서 그래프 알고리즘이 계산을 위해 접근하는 부분을 짧은 순간 동안 실시간으로 생성해, 마치 그래프 데이터가 존재하는 것처럼 알고리즘을 계산하는 것이다. 이때 그래프 데이터를 아무렇게 실시간 생성하는 것이 아니라 합성 그래프 모델에 따라 생성하고 저장한 것과 동일하도록 실시간 생성하는 것이 핵심 기술 중 하나다.
또한, 그래프 처리 엔진이 실시간으로 생성되는 그래프를 실제 그래프처럼 인식하고 알고리즘을 완전히 동일하게 계산하도록 엔진을 수정한 것이 또 다른 핵심 기술이다.
김민수 교수 연구팀은 T-GPS 기술을 종래의 2단계 방법과 성능을 비교한 결과, 종래의 2단계 방법이 11대의 컴퓨터로 구성된 클러스터에서 10억 개 간선 규모의 그래프를 계산할 수 있었던 반면, T-GPS 기술은 1대의 컴퓨터에서 1조 개 간선 규모의 그래프를 계산할 수 있어 컴퓨터 자원 대비 10,000배 더 큰 규모의 데이터를 처리를 할 수 있음을 확인했다. 또한, 알고리즘 계산 시간도 최대 43배 더 빠름을 확인했다.

< 그림 1. 종래의 2단계 방식 기술 개념도 >
교신저자로 참여한 김민수 교수는 "오늘날 거의 모든 IT 분야에서 그래프 데이터를 활용하고 있는바, 연구팀이 개발한 새로운 기술은 그래프 알고리즘의 개발 규모와 효율을 획기적으로 높일 수 있어 산업적 측면에서 파급 효과가 매우 클 것으로 기대한다ˮ 라고 말했다.
이번 연구에는 김 교수의 제자이자 캐나다 워털루 대학에 박사후 연구원으로 재직 중인 박힘찬 박사가 제1 저자로, 김 교수가 교신저자로 참여했으며 지난 22일 그리스 차니아에서 온라인으로 열린 데이터베이스 분야 최고 국제학술대회 중 하나인 IEEE ICDE에서 발표됐다. (논문명 : Trillion-scale Graph Processing Simulation based on Top-Down Graph Upscaling).
한편, 이 연구는 한국연구재단 선도연구센터 사업 및 중견연구자 지원사업, 과기정통부 IITP SW스타랩 사업의 지원을 받아 수행됐다.
목표 과업에 좋은 성능을 보이는 신경망 구조를 찾는 것은 큰 비용이 소요되어, 신경망의 성능을 효율적으로 예측하는 방법론이 활발히 연구되었다. 우리 대학 김재철AI대학원 소속 김선우 박사과정, 황현진 석박통합과정(지도교수 신기정)은 그래프 기반 사전학습을 이용하여, 기존의 효과적인 방법론의 성능을 개선하면서, 약 43배 빠른 예측 속도를 보이는 예측 기법을 개발하였다. 인공지능 모델은 최근 다양한 분야에서 괄목할 성과를 거두었지만, 모델의 신경망 구조가 해당 모델의 성능에 영향을 크게 미치는 특징이 있다. 그러나 목표 과업에 적합한 신경망 구조를 알고자 직접적으로 해당 신경망 구조를 학습 및 평가하는 방식은 큰 비용이 소요된다. 이를 해결하기 위해, 다른 인공지능 모델을 사용하여 특정 신경망 구조의 성능을 예측하는 방식이 사용되었다. 경량화된 예측 모델은 예측 속도는 빠르나 예측 성능이 낮다는 한계가 있었고, 최근 개발된 방법론은 예측 정확도는 높으나 예측 속도가 매우 느린 문
2025-11-11기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다. 우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다. 기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한
2025-11-06AI가 단순히 ‘그럴듯하게 그리는 수준’을 넘어, 옷이 왜 흔들리고 주름이 생기는지까지 이해하는 시대가 열렸다. 우리 대학 연구진은 3차원 공간에서의 움직임과 상호작용을 실제 물리 법칙처럼 학습하는 새로운 생성형 AI를 개발했다. 기존 2D 기반 영상 AI의 한계를 뛰어넘은 이번 기술은 영화, 메타버스, 게임 속 아바타의 현실감을 높이고 모션캡처나 3D 그래픽 수작업을 크게 줄일 수 있을 것으로 기대를 모은다. 우리 대학은 전산학부 김태균 교수 연구팀이 기존 2D 픽셀 기반 영상 생성 기술의 한계를 극복한 공간·물리 기반 생성형 AI 모델 ‘MPMAvatar’를 개발했다고 22일 밝혔다. 연구팀은 기존 2D 기술의 문제를 해결하기 위해, 가우시안 스플래팅(Gaussian Splatting)으로 다중 시점 영상을 3차원 공간으로 재구성하고, 여기에 물리 시뮬레이션 기법(Material Point Method, MPM)을 결
2025-10-22기업들은 오랫동안 데이터를 관리하는 데 관계형 데이터베이스(DB)를 써왔다. 하지만 거대 AI 모델 활용이 늘면서, 이제는 그래프 DB와의 통합 운영이 요구된다. 그러나 이 과정에서 비용 부담, 데이터 불일치, 복합 질의 처리의 어려움 같은 한계가 드러난다. 우리 연구진은 이 같은 문제를 단번에 해결할 수 있는 차세대 그래프-관계형 DB 시스템 개발에 성공했으며, 곧바로 산업 현장에 적용될 것으로 기대된다. 이 기술이 적용되면 AI는 단순 검색을 넘어 복잡한 연결 관계까지 실시간으로 추론할 수 있어, 한층 똑똑한 AI 서비스 구현이 가능해질 것이다. 우리 대학 전산학부 김민수 교수 연구팀이 관계형 DB와 그래프 DB를 완전 통합하여 그래프-관계형 질의를 한층 효율적으로 실행할 수 있는 새로운 DB 시스템 ‘키마이라(이하 Chimera)’를 개발했다고 8일 밝혔다. Chimera는 국제 성능 표준 벤치마크에서 기존 시스템 대비 최소 4배에서 최대 280배
2025-09-08텍스트 기반 대규모 언어 모델(LLM)인 ChatGPT 등과 함께, 산업 현장에서는 금융 거래, 주식, SNS, 환자기록, 등 비정형 데이터를 그래프 형태로 분석하는 GNN(Graph Neural Network) 기반의 그래프 AI 모델이 적극 활용되고 있다. 하지만 전체 그래프를 한 번에 학습(풀 그래프 학습)하는데 막대한 메모리와 GPU 서버가 필요하다는 한계점이 있다. KAIST 연구진이 단 한 대의 GPU 서버만으로도 대규모 GNN 모델을 최고속 학습할 수 있는 세계 최고 성능의 소프트웨어 기술 개발에 성공했다. 우리 대학 전산학부 김민수 교수 연구팀이 여러 대의 GPU 서버를 활용하는 기존 방식과 달리 한 대의 GPU 서버에서 대규모 풀(full) 그래프 AI 모델을 빠르게 학습하고 추론할 수 있는 GNN 시스템 ‘FlexGNN(플렉스지엔엔)’을 개발했다고 13일 밝혔다. FlexGNN은 기존 기술 대비 학습 속도를 최대 95배 향상한다. 최
2025-08-13