AI가 잘 작동할지 미리 안다. 그래프 학습으로 예측 속도 43배↑
목표 과업에 좋은 성능을 보이는 신경망 구조를 찾는 것은 큰 비용이 소요되어, 신경망의 성능을 효율적으로 예측하는 방법론이 활발히 연구되었다. 우리 대학 김재철AI대학원 소속 김선우 박사과정, 황현진 석박통합과정(지도교수 신기정)은 그래프 기반 사전학습을 이용하여, 기존의 효과적인 방법론의 성능을 개선하면서, 약 43배 빠른 예측 속도를 보이는 예측 기법을 개발하였다.
인공지능 모델은 최근 다양한 분야에서 괄목할 성과를 거두었지만, 모델의 신경망 구조가 해당 모델의 성능에 영향을 크게 미치는 특징이 있다. 그러나 목표 과업에 적합한 신경망 구조를 알고자 직접적으로 해당 신경망 구조를 학습 및 평가하는 방식은 큰 비용이 소요된다. 이를 해결하기 위해, 다른 인공지능 모델을 사용하여 특정 신경망 구조의 성능을 예측하는 방식이 사용되었다. 경량화된 예측 모델은 예측 속도는 빠르나 예측 성능이 낮다는 한계가 있었고, 최근 개발된 방법론은 예측 정확도는 높으나 예측 속도가 매우 느린 문제가 있었다.
우리 대학 김재철AI대학원 소속 김선우 박사과정, 황현진 석박통합과정(지도교수 신기정)은 경량화된 예측 모델에 특수한 그래프 기반 사전학습 방식을 적용하여, 해당 모델이 최근 방법론만큼의 예측 성능을 보이도록 개선하면서, 빠른 예측 속도를 유지하도록 하는 데 성공하였다.
연구팀이 제안한 FGP라는 그래프 기반 사전학습 기법은, 신경망 모델이 갖는 주요한 특징인 정보 흐름을 예측 모델이 포착할 수 있도록 하는 방식이다. 정보 흐름이란 신경망 내 순전파와 역전파를 의미하는 개념으로, 인공지능 모델의 학습에 핵심적이다. 연구팀은 그래프로 표현된 신경망 구조에서 위상 순서에 따라 벡터를 전파 시켜, 해당 신경망 구조의 정보 흐름을 모사한 표현 벡터를 생성하였다. 이후 신경망 성능 예측 모델은 해당 표현 벡터를 생성하는 사전학습 과정을 거치면서, 신경망의 정보 흐름을 포착하는 방식을 학습하게 된다.
연구팀을 다양한 실험을 통해 경량화된 예측 모델이 최신 모델보다 약 43배 빠르게 예측을 수행하면서, 최신 모델 대비 개선된 예측 성능을 보이는 것을 검증하였으며, 기존 사전학습 방법론과 비교하여도 성능 예측 과업 및 신경망 탐색 과업 등 다양한 응용 분야에서 더 효과적임을 검증하였다.
김선우 연구원은 “그래프의 위상 순서를 적절히 응용한 것이 본 방법론의 핵심”이라고 설명했다. 또한 “이 아이디어가 신경망 구조를 나타내는 그래프뿐만이 아니라, 위상 순서가 존재하는 그래프로 표현될 수 있는 다양한 데이터로 확장될 수 있기에, 더 넓은 분야에서 응용되기를 기대한다”고 덧붙였다.
본 연구는 인공지능 분야에서 권위 있는 국제 학술대회인 제39회 신경망 정보 처리 시스템 학회(39th Conference on Neural Information Processing System, 약칭 NeurIPS 2025)에 “Learning to Flow from Generative Pretext Tasks for Neural Architecture Encoding”이라는 제목으로 출판될 예정이다.
이 성과는 정보통신기획평가원의 지원을 받은 “강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습 과제”과제, “인공지능 자율성장을 위한 멀티에이전트 기반 복합지능 강화 기술 개발”과제, “AI 거점 연구 프로젝트”과제의 성과다.
세계 최고 DB 통합기술로 진짜 똑똑한 AI 에이전트 현실로
기업들은 오랫동안 데이터를 관리하는 데 관계형 데이터베이스(DB)를 써왔다. 하지만 거대 AI 모델 활용이 늘면서, 이제는 그래프 DB와의 통합 운영이 요구된다. 그러나 이 과정에서 비용 부담, 데이터 불일치, 복합 질의 처리의 어려움 같은 한계가 드러난다. 우리 연구진은 이 같은 문제를 단번에 해결할 수 있는 차세대 그래프-관계형 DB 시스템 개발에 성공했으며, 곧바로 산업 현장에 적용될 것으로 기대된다. 이 기술이 적용되면 AI는 단순 검색을 넘어 복잡한 연결 관계까지 실시간으로 추론할 수 있어, 한층 똑똑한 AI 서비스 구현이 가능해질 것이다.
우리 대학 전산학부 김민수 교수 연구팀이 관계형 DB와 그래프 DB를 완전 통합하여 그래프-관계형 질의를 한층 효율적으로 실행할 수 있는 새로운 DB 시스템 ‘키마이라(이하 Chimera)’를 개발했다고 8일 밝혔다. Chimera는 국제 성능 표준 벤치마크에서 기존 시스템 대비 최소 4배에서 최대 280배 빠른 질의 처리 성능을 입증하며 세계 최고 수준을 기록했다.
기존 관계형 DB와 달리, 그래프 DB는 데이터를 정점(노드)과 간선(연결선)으로 표현하는 구조를 가지고 있어 사람·사건·장소·시간처럼 복잡하게 얽힌 정보를 분석하고 추론하는 데 강점을 지닌다. 이러한 특징 덕분에 최근에는 AI 에이전트, SNS, 금융, 전자상거래 등 다양한 분야에서 활용이 빠르게 확산되고 있다.
이와 함께 관계형 DB와 그래프 DB 간의 복합 질의 처리 수요가 커지면서, 관계형 질의 언어(SQL)에 그래프 질의 기능을 확장한 신규 표준 언어 ‘SQL/PGQ’도 제안됐다.
SQL/PGQ는 기존 데이터베이스 언어(SQL)에 그래프 탐색 기능을 추가한 새로운 표준 언어로, 표(테이블) 형태의 데이터와 사람·사건·장소 등 연결 관계 정보를 한 번에 질의(검색)할 수 있도록 설계됐다. 이를 활용하면 ‘이 사람의 친구의 친구가 어느 회사에 다니는가’와 같은 복잡한 관계도 기존보다 훨씬 간단하게 검색할 수 있다.
문제는 지금까지의 접근 방식이 그래프 탐색을 억지로 조인 연산으로 흉내 내거나, 메모리에 그래프 뷰(view)를 미리 구성해 처리하는 방법에 의존했다는 점이다. 전자의 경우 탐색 단계가 깊어질수록 성능이 급격히 떨어지고, 후자의 경우 데이터 규모가 조금만 커져도 메모리 부족으로 실행이 실패한다. 또 원본 데이터 변경이 뷰에 즉시 반영되지 않아 데이터 최신성이 떨어지고, 관계형 결과와 그래프 결과를 따로 결합해야 하는 비효율이 뒤따랐다.
우리 대학 연구팀이 개발한 ‘Chimera(키마이라)’는 이러한 한계를 근본적으로 해결했다. 연구팀은 데이터베이스의 저장 계층과 질의 처리 계층을 모두 새롭게 설계했다.
연구팀은 우선 그래프 전용 저장소와 관계형 데이터 저장소를 함께 운영하는 ‘듀얼 스토어 구조’를 도입했다. 여기에 그래프 탐색과 관계형 연산을 동시에 처리하는 ‘탐색-조인 연산자’를 적용해, 복잡한 연산을 단일 체계에서 효율적으로 실행할 수 있도록 했다. 덕분에 Chimera는 데이터 저장부터 질의 처리까지 전 과정을 하나로 통합한 세계 최초의 그래프-관계형 DB 시스템으로 자리매김했다.
그 결과, 국제 성능 표준 벤치마크인 ‘LDBC Social Network Benchmark(SNB)’에서 기존 시스템 대비 최소 4배에서 최대 280배 빠른 성능을 기록하며 세계 최고 수준을 입증했다.
그래프 데이터의 규모가 아무리 커져도 메모리 부족으로 인한 질의 실패가 발생하지 않으며, 뷰를 사용하지 않기 때문에 데이터 최신성 측면에서도 지연 문제가 없다.
김민수 교수는 “데이터 간 연결 관계가 갈수록 복잡해지는 만큼, 그래프와 관계형 DB를 아우르는 통합 기술의 필요성이 커지고 있다”며 “Chimera는 이 문제를 근본적으로 해결한 기술로, 앞으로 AI 에이전트, 금융, 전자상거래 등 다양한 산업에서 널리 쓰일 것으로 기대한다”고 밝혔다.
이번 연구에는 전산학부 이건호 박사과정이 제1저자로, 김민수 교수의 창업기업 ㈜그래파이의 박정호 엔지니어가 제2저자로 참여했으며, 김 교수가 교신저자를 맡았다.
연구 성과는 지난 9월 1일, 세계적 권위의 데이터베이스 분야 국제학술대회 VLDB에서 발표됐다. 특히 새롭게 개발된 Chimera 기술은 ㈜그래파이가 출시 예정인 벡터-그래프-관계형 DB 시스템 ‘AkasicDB’에 적용돼, ‘RAG 기반 고성능 AI 에이전트(검색 능력을 갖춘 똑똑한 AI 비서)’ 구현을 위한 핵심 기술로 즉각적인 산업적 파급력이 기대된다.
※ 논문제목: Chimera: A System Design of Dual Storage and Traversal-Join Unified Query Processing for SQL/PGQ
※ DOI: https://dl.acm.org/doi/10.14778/3705829.3705845
한편, 이번 연구는 과기정통부 IITP SW스타랩과 한국연구재단 중견과제의 지원을 받아 수행됐다.
GPU 한 대로 95배 빠르게 그래프 분석 AI 'FlexGNN' 개발
텍스트 기반 대규모 언어 모델(LLM)인 ChatGPT 등과 함께, 산업 현장에서는 금융 거래, 주식, SNS, 환자기록, 등 비정형 데이터를 그래프 형태로 분석하는 GNN(Graph Neural Network) 기반의 그래프 AI 모델이 적극 활용되고 있다. 하지만 전체 그래프를 한 번에 학습(풀 그래프 학습)하는데 막대한 메모리와 GPU 서버가 필요하다는 한계점이 있다. KAIST 연구진이 단 한 대의 GPU 서버만으로도 대규모 GNN 모델을 최고속 학습할 수 있는 세계 최고 성능의 소프트웨어 기술 개발에 성공했다.
우리 대학 전산학부 김민수 교수 연구팀이 여러 대의 GPU 서버를 활용하는 기존 방식과 달리 한 대의 GPU 서버에서 대규모 풀(full) 그래프 AI 모델을 빠르게 학습하고 추론할 수 있는 GNN 시스템 ‘FlexGNN(플렉스지엔엔)’을 개발했다고 13일 밝혔다. FlexGNN은 기존 기술 대비 학습 속도를 최대 95배 향상한다.
최근 기후, 금융, 의료, 제약, 제조, 유통 등 다양한 분야에서는 데이터를 정점과 간선으로 구성된 그래프 형태로 변환해 분석 및 예측하는 사례가 증가하고 있다.
전체 그래프를 모두 학습에 활용하는 풀 그래프 방식이 더욱 우수한 정확도를 보이지만, 학습 과정에서 대규모의 중간 데이터(intermediate data)가 발생해 메모리 부족 현상이 빈번히 발생하고, 여러 서버 간의 데이터 통신으로 인해 학습 시간이 길어지는 한계가 있었다.
연구팀이 개발한 FlexGNN은 이러한 문제를 극복하기 위해 여러 대의 GPU 서버 대신 단일 GPU 서버에서 SSD(솔리드 스테이트 드라이브)와 메인 메모리를 활용한 최적의 AI 모델 학습을 수행한다.
특히 데이터베이스 시스템의 질을 최적화시키는 AI 퀴리 최적화 학습을 통해 GPU-메인 메모리-SSD 계층 간 모델 파라미터, 학습 데이터, 중간 데이터를 최적의 시점과 방식으로 계산을 시키는 새로운 학습 최적화 기술을 개발했다.
이를 통해 FlexGNN은 데이터 크기, 모델 규모, GPU 메모리 등 가용 자원 상황에 따라 유연하게 최적의 학습 실행 계획을 생성해 높은 자원 효율성과 학습 속도를 구현한다.
그 결과, 메인 메모리 용량을 훨씬 초과하는 데이터에 대해서도 GNN 모델을 학습하며, 단일 GPU 서버에서도 최대 95배 빠르게 학습이 가능해졌다. 특히 기후 예측 등에서 슈퍼컴퓨터보다 정밀한 분석이 가능한 풀 그래프 AI 구현이 현실화됐다.
우리 대학 김민수 교수는 “날씨 예측과 신소재 발견 등 복잡한 문제를 해결하는데 풀 그래프 GNN 모델이 활발히 활용되면서 관련 기술의 중요성이 점점 높아지고 있다”며 “FlexGNN이 그동안 어려움으로 남아 있던 그래프 AI 모델의 학습 규모와 속도 문제를 획기적으로 해결한 만큼, 다양한 산업 분야에 널리 활용되기를 기대한다”고 밝혔다.
이번 연구는 전산학부 배정민 박사과정이 제1 저자로, 김민수 교수창업기업인 (주)그래파이의 한동형 CTO가 제2 저자로 참여했으며, 김 교수가 교신저자를 맡았다.
연구 결과는 세계적 권위의 데이터마이닝 학술대회인 ‘ACM KDD’에서 지난 8월 5일에 발표됐다. FlexGNN 기술은 향후 (주)그래파이의 그래프 DB 솔루션인 그래프온(GraphOn)에도 적용될 예정이다.
※ 논문제목: FlexGNN: A High-Performance, Large-Scale Full-Graph GNN System with Best-Effort Training Plan Optimization
※ DOI: https://doi.org/10.1145/3711896.3736964
한편, 이번 연구는 과기정통부 IITP SW스타랩과 IITP-ITRC, 그리고 한국연구재단 중견과제의 지원을 받아 수행됐다.
엔비디아 쿠다 통합메모리 없이 세계 최고 그래프 연산 혁신
인공지능 분야에서 지식 체계나 데이터베이스를 그래프로 저장하고 활용하는 사례가 급증하지만, 일반적으로 복잡도가 높은 그래프 연산은 GPU 메모리의 제한으로 인해 매우 작은 규모의 그래프 등 비교적 단순한 연산만 처리할 수 있다는 한계가 있다. 우리 연구진이 25대의 컴퓨터로 2,000초가 걸리던 연산을 한 대의 GPU 컴퓨터로 처리할 수 있는 세계 최고 성능의 연산 프레임워크를 개발하는데 성공했다.
우리 대학 전산학부 김민수 교수 연구팀이 한정된 크기의 메모리를 지닌 GPU를 이용해 1조 간선 규모의 초대규모 그래프에 대해 다양한 연산을 고속으로 처리할 수 있는 스케줄러 및 메모리 관리 기술들을 갖춘 일반 연산 프레임워크(일명 GFlux, 지플럭스)를 개발했다고 27일 밝혔다.
연구팀이 개발한 지플럭스 프레임워크는 그래프 연산을 GPU에 최적화된 단위 작업인 ‘지테스크(GTask)’로 나누고, 이를 효율적으로 GPU에 배분 및 처리하는 특수한 스케줄링 기법을 핵심 기술로 한다. 그래프를 GPU 처리에 최적화된 자체 개발 압축 포맷인 HGF로 변환해 SSD와 같은 저장장치에 저장 및 관리한다.
기존 표준 포맷인 CSR로 저장할 경우, 1조 간선 규모의 그래프 크기가 9테라바이트(TB)에 이르지만, HGF 포맷을 활용하면 이 크기를 4.6테라바이트(TB)로 절반 가까이 줄일 수 있다. 또한 GPU에서는 메모리 정렬 문제로 그간 사용되지 않았던 3바이트의 주소 체계를 최초로 활용, GPU 메모리 사용량을 약 25% 절감했다.
또한, 엔비디아(NVIDIA) 쿠다(CUDA)의 통합 메모리(Unified Memory)에 전혀 의존하지 않고, 메모리 부족으로 인한 연산 실패를 방지할 수 있도록 메인 메모리와 GPU 메모리를 통합적으로 관리하는 GTask 전용 메모리 관리 기술을 주요 핵심 기술로 포함하고 있다.
김민수 교수 연구팀은 삼각형 개수 세기*와 같은 고난도 그래프 연산을 통해 지플럭스 기술의 성능을 검증했다.
*삼각형 개수 세기: 그래프에서 서로 연결된 세 개의 정점이 이루는 삼각형 형태의 관계를 모두 찾고 개수를 세는 연산으로 데이터 분석 및 인공지능에서 널리 활용됨
약 700억 간선 규모의 그래프를 대상으로 한 실험에서, 기존의 최고 성능 기술은 고속 네트워크로 연결된 컴퓨터 25대를 이용해 약 2,000초가 걸리던 삼각형 개수 세기 연산을 지플럭스는 GPU가 장착된 단일 컴퓨터만으로 약 두배 빠른 1,184초 만에 처리하는 데 성공했다.
이는 단일 컴퓨터로 삼각형 개수 세기 연산을 성공적으로 처리한 현재까지 알려진 최대 규모의 그래프다.
김민수 교수는 “최근 그래프 RAG(검색증강생성), 지식 그래프, 그래프 벡터 색인 등 대규모 그래프에 대한 고속 연산 처리 기술의 중요성이 점점 커지고 있다”며, “지플럭스 기술이 이러한 문제를 효과적으로 해결할 것으로 기대한다”고 말했다.
이번 연구에는 전산학부 오세연, 윤희용 박사과정이 각각 제 1, 2 저자로, 김 교수가 창업한 그래프 딥테크 기업인 (주)그래파이 소속 한동형 연구원이 제3 저자로, 김 교수가 교신저자로 참여했고. 연구 결과는 IEEE 주최 국제데이터공학학술대회(ICDE, International Conference on Data Engineering)에서 지난 5월 22일에 발표됐다.
※ 논문제목: GFlux: A fast GPU-based out-of-memory multi-hop query processing framework for trillion-edge graphs
※ DOI: https://doi.ieeecomputersociety.org/10.1109/ICDE65448.2025.00075
한편, 이번 연구는 과기정통부 IITP SW스타랩과 한국연구재단 중견과제의 지원을 받아 수행됐다.
‘로봇스케치’ 도쿄 데뷔, 최우수 심사위원상 수상
VR 헤드셋을 쓴 디자이너(산업디자인학과 이준협 박사)가 태블릿과 펜으로 아무 것도 없는 가상 공간 속에서 유려한 입체 형태와 복잡한 관절 구조를 가지는 4족 거미 로봇을 단 몇 분 만에 그려서 완성했다. 디자이너가 컨트롤러를 조작하자 움직이던 거미 로봇이 일어나 2족 휴머노이드 로봇으로 자세를 수정하고 두 발을 짚고 걸음을 내딛기 시작했다. (2024 시그래프 아시아 리얼타임 라이브의 KAIST 로봇스케치 시연 장면)
우리 대학 12월 6일 도쿄 국제 포럼에서 열린 ‘시그래프 아시아 2024’의 하이라이트인 리얼타임 라이브(Real-Time Live!)에서 산업디자인학과 배석형 교수팀이 기계공학과 황보제민 교수팀과 협업하여 개발한 ‘로봇스케치(RobostSketch)’ 기술이 최우수 심사위원상(Jury’s Choice)을 수상했다고 9일 밝혔다.
‘시그래프 리얼타임 라이브’는 컴퓨터 그래픽스 및 상호작용 분야에서 ‘꿈의 무대’로 알려져 있다. 매년 전 세계에서 엄선된 10여 개의 혁신적인 기술만이 무대에 오른다.
모든 시연은 사전 녹화 없이 실시간으로 이루어지며, 6분이라는 제한된 시간 안에 기술의 독창성과 가능성을 선보여야 한다. KAIST의 로봇스케치는 이러한 무대에서 새로운 로봇 디자인 프로세스의 가능성을 보이며 큰 주목을 받았으며, 단 하나의 기술에만 수여되는 최우수 심사위원상을 수상했다.
로봇스케치는 단순히 외형과 구조를 시각적으로 표현하는 설계 도구를 넘어, 3D 스케칭에 생성형 AI와 몰입형 VR을 접목해 로봇 디자인의 개념을 새롭게 정의한 혁신적 기술이다.
디자이너는 VR 환경에서 태블릿과 펜을 사용해 복잡한 관절형 구조를 직관적으로 표현하고, 이를 실제 크기로 확인할 수 있다. 디자이너가 그린 로봇은 강화학습을 통해 현실 세계의 물리 법칙을 따르는 시뮬레이션 속에서 보행법과 움직임을 학습한다.
이를 통해 디자이너는 실제 세계에서 작동 가능한 로봇 디자인을 VR 공간 안에서 만들고, 로봇을 직접 움직이며 로봇이 가질 동작의 자연스러움과 안정성을 실시간으로 확인할 수 있다.
로봇스케치는 3D 스케칭 전문가인 산업디자인학과 배석형 교수 연구팀과 로봇 강화학습 전문가인 기계공학과 황보제민 교수 연구팀의 협업으로 완성됐다.
배석형 교수는 “기존 로봇 디자인의 한계를 극복하고, 로봇 디자이너가 상상하는 모든 것을 실시간으로 표현할 수 있는 도구를 만들고 싶었다”고 밝혔다.
이어 “로봇 디자인은 단순히 외형뿐 아니라 로봇의 움직임과 기능, 더 나아가 사용자와의 상호작용까지 모두 포함하는 과정이며 로봇 디자이너와 로봇 엔지니어의 원활한 소통을 촉진하고 현실 프로토타이핑에 소모되는 시간과 비용을 크게 줄일 수 있는 로봇스케치는 앞으로 로봇 개발과 제품화 과정에서 중요한 도구가 될 것”이라고 덧붙였다.
이 연구는 ‘DRB-KAIST 스케치더퓨처 연구센터’의 지원 아래 이루어진 결과로, 해당 센터는 3D 스케칭, AI, VR 기술을 결합해 전문가의 창의성과 생산성을 극대화하는 도구를 연구하며 첨단 기술과 디자인의 융합 가능성을 탐구하고 있다. 앞으로 로봇 디자인뿐 아니라 미래 산업 전반에서 고도화된 디자인 도구의 발전이 기대된다.
ACM SIGGRAPH Asia 2024 리얼타임 라이브 <로봇 스케치> 시연 영상: https://youtu.be/5wi53Z2_sAk
뉴로모픽 신경망으로 컴퓨팅 난제 해결하다
우리 연구진이 현재 반도체 산업체에서 사용되는 실리콘 소재 및 공정만을 사용해 초소형 진동 신경망을 구축하여 경계선 인식 기능을 구현했으며 난제 중 하나인 그래프 색칠 문제*를 해결했다.
*그래프 색칠 문제: 그래프 이론에서 사용되는 용어로, 그래프의 각 정점에 서로 다른 색을 할당해야 하며, 이러한 색깔 구분 문제는 방송국 주파수가 겹쳐 난시청 지역이 발생하지 않도록 주파수를 할당하는 문제 등과도 유사해 다양하게 응용되고 있음
우리 대학 전기및전자공학부 최양규 교수 연구팀이 실리콘 바이리스터 소자로 생물학적 뉴런의 상호작용을 모방한 뉴로모픽 진동 신경망을 개발했다고 3일 밝혔다.
빅데이터 시대가 도래하면서 인공지능 기술이 예전과 비교할 수 없을 만큼 비약적으로 발전하고 있다. 인간의 뇌 기능을 모사하는 뉴로모픽 컴퓨팅 중 하나인 상호 간 결합된 진동 신경망(oscillatory neural network)은 뉴런의 상호작용을 모방한 인공 신경망이다. 진동 신경망은 기본단위에 해당하는 진동자의 연결 동작을 이용하며 신호의 크기가 아닌 진동을 이용해 연산을 수행하므로 소모 전력 측면에서 이점을 가지고 있다.
연구팀은 실리콘 기반 진동자를 이용해 진동 신경망을 개발했다. 축전기를 이용해 두 개 이상의 실리콘 진동자를 연결하면, 각각의 진동 신호가 상호작용해 시간이 경과하면서 동기화(synchronization) 된다. 연구팀은 진동 신경망으로 영상 처리에 사용되는 경계선 인식(edge detection) 기능을 구현했으며 난제 중 하나인 그래프 색칠 문제(vertex coloring problem)를 해결했다.
또한 이번 연구는 제조 관점에서, 복잡한 회로나 기존 반도체 공정과 호환성이 낮은 소재 및 구조 대신, 현재 반도체 산업체에서 사용되는 실리콘 관련 소재 및 공정만으로 진동 신경망을 구축했기 때문에, 양산에 바로 적용 가능하다는 장점이 있다.
연구를 주도한 윤성윤 박사과정, 서강대학교 한준규 교수는 "개발된 진동 신경망은 복잡한 컴퓨팅 난제를 계산할 수 있는 뉴로모픽 컴퓨팅 하드웨어로, 자원 분배, 신약 개발, 반도체 회로 설계 및 스케줄링 등에 유용하게 사용될 수 있을 것으로 기대된다ˮ고 연구의 의의를 설명했다.
윤성윤 박사과정과 한준규 교수가 공동 제1 저자로 참여한 이번 연구는 나노과학 분야 저명 국제 학술지 ‘나노 레터스(Nano Letters)’에 2024년 3월 24권 9호에 출판되었으며, 추가 표지 논문(Supplementary Cover)으로 선정됐다.
(논문명 : A Nanoscale Bistable Resistor for an Oscillatory Neural Network)
(https://pubs.acs.org/doi/full/10.1021/acs.nanolett.3c04539).
한편 이번 연구는 한국연구재단 차세대지능형반도체기술개발사업 및 국가반도체연구실지원핵심기술개발사업의 지원을 받아 수행됐다.
신기정 교수 연구팀, 정보검색 분야 최우수 학술대회 ACM CIKM 2022 튜토리얼 강연
우리 대학 김재철AI대학원 신기정 교수가 이끄는 연구팀이 지난 10월 17일부터 10월 21일까지 미국 애틀랜타에서 진행된 미 컴퓨터협회 정보 및 지식 관리 학술대회(이하 ACM CIKM 2022)에서 튜토리얼 강연을 진행했다고 1일 밝혔다.
올해 31회를 맞은 ACM CIKM은, 정보 검색(Information Retrieval) 분야 세계 최고 권위 학회 중 하나로, 전 세계에서 해당 분야 전문가들이 참석해 최신 연구 성과를 공유한다. ACM CIKM에서는 매년 강연자의 전문성 그리고 강연 주제의 깊이와 다양성 등을 고려해 강연자를 선정해 튜토리얼 강연을 열고 있다.
김재철AI대학원 이건 석박통합과정과 유재민 박사(미국 카네기멜론대학교 박사 후 연구원)로 구성된 신기정 교수 연구팀은 `Mining of Real-world Hypergraphs: Concepts, Patterns, and Generators'라는 제목으로 ACM CIKM 2022 학술대회에서 튜토리얼 강연을 진행했다.
사회, 뇌, 웹 등의 다양한 복잡계는 구성요소끼리 상호작용하는 특징이 있다. 이러한 상호작용 중 다수는 셋 이상의 구성요소가 참여하는 `그룹 상호작용'이나 분석의 용이성을 위해 두 개의 구성요소가 참여하는 `쌍 상호작용'을 가정하는 경우가 많았다. 하지만, 하이퍼그래프를 활용해 그룹 상호작용을 쉽고 효과적으로 모델링하고 분석할 수 있다는 사실이 최근 많은 주목을 받았다. 하이퍼그래프는 정점(Vertex)들과 초간선(Hyperedge)들로 구성되며, 하나의 초간선은 임의의 수의 정점을 포함하는 집합이다. 복잡계의 구성요소들을 표현하기 위해 정점이 사용되며, 그룹 상호작용들을 표현하기 초간선이 사용된다.
튜토리얼 강연에서 신기정 교수는 다양한 복잡계를 구성하는 요소들 사이의 그룹 상호작용으로 인해 발생하는 패턴을 발견하고 이에 대한 설명을 제공하기 위한 하이퍼그래프 기반 최신 인공지능 및 빅데이터 기술들을 소개했다. 강연은 정적인 패턴, 동적인 패턴, 그리고 패턴들에 대한 설명을 제공하기 위한 생성 모형 세 부분으로 나뉘어서 3시간 동안 진행됐다. 스탠퍼드 대학교, 코넬 대학교 등 세계 유수 대학의 연구 논문과 함께, 신기정 교수 연구팀의 연구 논문 7편도 소개됐다.
신기정 교수는 "하이퍼그래프에 대한 이론적인 연구는 많지만, 하이퍼그래프를 활용해 실제 복잡계를 분석하는 실증적인 연구는 걸음마 단계다ˮ라며, "튜토리얼을 통해 더 많은 사람이 이 주제에 관심을 갖기를 기대하며, 다양한 후속 연구를 통해 복잡계에 대한 인류의 이해를 크게 증진시킬 것을 기대한다ˮ라고 설명했다.
신기정 교수 연구팀은 올해 11월 28일부터 진행되는 전기전자공학자협회 데이터 마이닝 학술대회(IEEE ICDM 2022)에서도 튜토리얼 강연자로 선정됐다. 올해 22회를 맞는 IEEE ICDM은, 데이터 마이닝(Data Mining) 분야의 세계 최고 권위 학회 중 하나로, 올해 12월 1일까지 미국 올랜도에서 개최될 예정이다.
한편 이번 튜토리얼은 과학기술정보통신부 재원으로 한국연구재단의 지원을 받은 대용량 하이퍼그래프 마이닝: 패턴, 아웃라이어, 학습, 및 요약 과제와 정보통신기획평가원의 지원을 받은 강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습 과제의 성과이다.
레이블 없이 훈련 가능한 그래프 신경망 모델 기술 개발
최근 다양한 분야 (소셜 네트워크 분석, 추천시스템 등)에서 그래프 데이터 (그림 1) 의 중요성이 대두되고 있으며, 이에 따라 그래프 신경망(Graph Neural Network) 기술을 활용한 서비스가 급속히 증가하고 있다. 서비스 구축을 위해서는 심층 학습 모델을 훈련해야 하며, 이를 위해서는 충분한 훈련 데이터를 준비해야 한다. 특히 훈련 데이터에 정답지를 만드는 레이블링(labeling) 과정이 필요한데 (예를 들어, 소셜 네트워크의 특정 사용자에 `20대'라는 레이블을 부여하는 행위), 이 과정은 일반적으로 수작업으로 진행되므로 노동력과 시간이 소요된다. 따라서 그래프 신경망 모델 훈련 시 데이터가 충분하지 않은 상황을 효과적으로 타개하는 방법의 필요성이 대두되고 있다.
우리 대학 산업및시스템공학과 박찬영 교수 연구팀이 데이터의 레이블이 없는 상황에서도 높은 예측 정확도를 달성할 수 있는 새로운 그래프 신경망 모델 훈련 기술을 개발했다고 25일 밝혔다.
정점의 레이블이 없는 상황에서 그래프 신경망 모델의 훈련은 데이터 증강을 통해 생성된 정점들의 공통된 특성을 학습하는 과정으로 볼 수 있다. 하지만 이러한 정점의 공통된 특성을 학습하는 과정에서, 기존 훈련 방법은 표상 공간에서 자신을 제외한 다른 정점들과의 유사도가 작아지도록 훈련을 한다. 하지만 그래프 데이터가 정점들 사이의 관계를 나타내는 데이터 구조라는 점을 고려했을 때, 이런 일차원적인 방법론은 정점 간의 관계를 정확히 반영하지 못하게 된다.
박 교수팀이 개발한 기술은 그래프 신경망 모델에서 정점들 사이의 관계를 보존해 정점의 레이블이 없는 상황에서 모델을 훈련시켜 높은 예측 정확도를 달성할 수 있게 해준다.
KAIST 산업및시스템공학과 이남경 석사과정이 제1 저자, 현동민 박사, 이준석 석사과정 학생이 제2, 제3 저자로 참여한 이번 연구는 최고권위 국제학술대회 `정보지식관리 콘퍼런스(CIKM) 2022'에서 올 10월 발표될 예정이다. (논문명: Relational Self-Supervised Learning on Graphs)
기존 연구에서는 정점의 레이블이 없는 상황에서 정점에 대한 표상을 훈련하기 위해 표상 공간 내에서 자기 자신을 제외한 다른 정점들과의 유사도가 작아지도록 훈련을 한다. 예를 들어서, 소셜 네트워크에 A, B, C 라는 사용자가 존재할 때, A, B와 C가 표상 공간에서 서로 간의 유사도가 모두 작아지도록 모델을 훈련하는 것이다. 이때 박 교수팀이 착안한 점은 그래프 데이터가 정점 간의 관계를 나타내는 데이터이므로 정점 간의 관계를 포착하도록 정점의 표상을 훈련할 필요가 있다는 점이었다.
즉, A, B와 C 서로 간의 유사도가 모두 작아지게 하는 훈련 메커니즘과는 달리, 실제 그래프상에서는 이들이 연관이 있을 수 있다는 점이다. 따라서 A, B와 C 사이의 관계를 긍정/부정의 이진 분류를 통해 표상 공간에서 유사도가 작아지도록 훈련을 하는 것이 아닌, 이들의 관계를 정의해 그 관계를 보존하도록 학습하는 모델을 연구팀은 개발했다(그림 2). 연구팀은 정점 간의 관계를 기반으로 정점의 표상을 훈련함으로써, 기존 연구가 갖는 엄격한 규제들을 완화해 그래프 데이터를 더 유연하게 모델링했다.
연구팀은 이 학습 방법론을 `관계 보존 학습'이라고 명명했으며, 그래프 데이터 분석의 주요 문제(정점 분류, 간선 예측)에 적용했다(그림 3). 그 결과 최신 연구 방법론과 비교했을 때, 정점 분류 문제에서 최대 3% 예측 정확도를 향상했고, 간선 예측 문제에서 6%의 성능 향상, 다중 연결 네트워크 (Multiplex network)의 정점 분류 문제에서 3%의 성능 향상을 보였다.
제1 저자인 이남경 석사과정은 "이번 기술은 데이터의 레이블이 부재한 상황에서도 그래프 신경망을 학습할 수 있는 새로운 방법ˮ 이라면서 "그래프 기반의 데이터뿐만이 아닌 이미지 텍스트 음성 데이터 등에 폭넓게 적용될 수 있어, 심층 학습 전반적인 성능 개선에 기여할 수 있다ˮ고 밝혔다.
연구팀을 지도한 박찬영 교수도 "이번 기술은 그래프 데이터상에 레이블이 부재한 상황에서 표상 학습 모델을 훈련하는 기존 모델들의 단점들을 `관계 보존`이라는 개념을 통해 보완해 새로운 학습 패러다임을 제시하여 학계에 큰 파급효과를 낼 수 있다ˮ라고 말했다.
한편, 이번 연구는 과학기술정보통신부 재원으로 정보통신기획평가원의 지원을 받아 사람중심인공지능핵심원천기술개발 과제로 개발한 연구성과 결과물(No. 2022-0-00157, 강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습)이다.
인공지능으로 화학반응을 예측하다
우리 대학 생명화학공학과 정유성 교수 연구팀이 화학자처럼 생각하는 인공지능을 개발했다고 4일 밝혔다. 연구팀이 개발한 인공지능은 유기 반응의 결과를 정확하게 예측한다.
유기 화학자는 반응물을 보고 유기 화학반응의 결과를 예상해 약물이나 유기발광다이오드(OLED)와 같이 원하는 물성을 갖는 분자를 합성한다. 하지만 실험을 통해 화학반응의 생성물을 직접 확인하는 작업은 일반적으로 시간과 비용이 많이 소모된다. 게다가 유기 화학 반응은 같은 반응물에서 다양한 생성물이 생길 수 있어 숙련된 유기 화학자라도 모든 화학반응을 정확하게 예측하지 못한다.
이런 한계를 극복하고자 인공지능을 이용해 유기 반응을 예측하는 연구가 활발하게 일어나고 있다. 대부분의 연구는 반응물과 생성물을 서로 다른 두 개의 언어로 생각하고 한 언어에서 다른 언어로 번역하는 언어 번역 모델을 사용하는 방법에 집중하고 있다. 이 방법은 예측 정확도는 높지만, 인공지능이 화학을 이해하고 생성물을 예측했다고 해석하기 어려워 모델이 예측한 결과를 신뢰하기 어렵다.
정 교수팀은 화학적 직관을 바탕으로 모델을 설계해서 모델이 예측한 결과를 화학적으로 설명을 할 수 있을 뿐 아니라, 공개 데이터베이스에서 매우 우수한 예측 정확도를 달성했다.
정 교수팀은 화학자가 반응 결과를 예측하는 방법에서 아이디어를 얻었다. 화학자는 반응 중심을 파악하고 화학반응 규칙을 적용해 가능한 생성물을 예측한다. 이 과정을 본떠서 공개 화학반응 데이터베이스로부터 화학반응 규칙을 도출했다. 화학반응 규칙을 바탕으로 분자의 화학 반응성을 예측하기 위해서, 분자를 그래프로 취급하는 그래프 신경망(Graph Neural Network, GNN) 모델을 개발했다. 이 모델에 반응물들을 넣으면 화학반응 규칙과 반응 중심을 식별해 생성물을 성공적으로 예측한다.
정 교수팀은 화학반응에서 널리 사용되는 미국 특허무역청(USPTO) 데이터를 이용해 유기 반응을 90% 이상의 정확도로 예측하는 데 성공했다. 개발된 모델은 실제 사용 시 모델에 높은 신뢰성을 제공하는 `예측의 불확실성'을 말할 수 있다. 예를 들어, 불확실성이 낮다고 간주되는 모델의 정확도는 98.6%로 증가한다. 모델은 무작위로 샘플링된 일련의 유기 반응을 예측하는 데 있어 소규모의 합성 전문가보다 더 정확한 것으로 나타났다.
이번 연구의 성공으로 연구팀은 다른 분야에서 좋은 성능을 보인 모델을 그대로 사용하던 기존 방법보다, 화학자가 생각하는 방법과 동일하게 신경망을 설계하는 전략이 더 합리적이고 우수한 성능을 보인다는 것을 입증했다. 연구팀은 이 연구를 활용하면 분자 설계 과정이 비약적으로 빨라질 것으로 기대하며, 새로운 화합물 개발에 실용적인 응용을 기대하고 있다. 정유성 교수팀은 현재 연구 성과의 특허 출원을 준비하고 있다.
우리 대학 생명화학공학과 첸수안(Shuan Chen) 박사과정이 제1 저자로 참여한 이번 연구 결과는 국제 학술지 '네이처 머신 인텔리전스(Nature Machine Intelligence)'에 9월호 표지논문으로 선정돼 출판됐다.
한편 이번 연구는 산업통상자원부와 한국연구재단의 지원을 받아 수행됐다.
세계 최초 그래프 기반 인공지능 추론 가능한 SSD 개발
우리 대학 전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 메모리 시스템 연구실)이 세계 최초로 그래프 기계학습 추론의 그래프처리, 그래프 샘플링 그리고 신경망 가속을 스토리지/SSD 장치 근처에서 수행하는 `전체론적 그래프 기반 신경망 기계학습 기술(이하 홀리스틱 GNN)'을 개발하는데 성공했다고 10일 밝혔다.
연구팀은 자체 제작한 프로그래밍 가능 반도체(FPGA)를 동반한 새로운 형태의 계산형 스토리지/SSD 시스템에 기계학습 전용 신경망 가속 하드웨어와 그래프 전용 처리 컨트롤러/소프트웨어를 시제작했다. 이는 이상적 상황에서 최신 고성능 엔비디아 GPU를 이용한 기계학습 가속 컴퓨팅 대비 7배의 속도 향상과 33배의 에너지 절약을 가져올 수 있다고 밝혔다.
그래프 자료구조가 적용된 새로운 기계학습 모델은 기존 신경망 기반 기계학습 기법들과 달리, 데이터 사이의 연관 관계를 표현할 수 있어 페이스북, 구글, 링크드인, 우버 등, 대규모 소셜 네트워크 서비스(SNS)부터, 내비게이션, 신약개발 등 광범위한 분야와 응용에서 사용된다. 예를 들면 그래프 구조로 저장된 사용자 네트워크를 분석하는 경우 일반적인 기계학습으로는 불가능했던 현실적인 상품 및 아이템 추천, 사람이 추론한 것 같은 친구 추천 등이 가능하다. 이러한 신흥 그래프 기반 신경망 기계학습은 그간 GPU와 같은 일반 기계학습의 가속 시스템을 재이용해 연산 되어왔는데, 이는 그래프 데이터를 스토리지로부터 메모리로 적재하고 샘플링하는 등의 데이터 전처리 과정에서 심각한 성능 병목현상과 함께 장치 메모리 부족 현상으로 실제 시스템 적용에 한계를 보여 왔다.
정명수 교수 연구팀이 개발한 홀리스틱 GNN 기술은 그래프 데이터 자체가 저장된 스토리지 근처에서 사용자 요청에 따른 추론의 모든 과정을 직접 가속한다. 구체적으로는 프로그래밍 가능한 반도체를 스토리지 근처에 배치한 새로운 계산형 스토리지(Computational SSD) 구조를 활용해 대규모 그래프 데이터의 이동을 제거하고 데이터 근처(Near Storage)에서 그래프처리 및 그래프 샘플링 등을 가속해 그래프 기계학습 전처리 과정에서의 병목현상을 해결했다.
일반적인 계산형 스토리지는 장치 내 고정된 펌웨어와 하드웨어 구성을 통해서 데이터를 처리해야 했기 때문에 그 사용에 제한이 있었다. 그래프처리 및 그래프샘플링 외에도, 연구팀의 홀리스틱 GNN 기술은 인공지능 추론 가속에 필요한 다양한 하드웨어 구조, 그리고 소프트웨어를 후원할 수 있도록 다수 그래프 기계학습 모델을 프로그래밍할 수 있는 장치수준의 소프트웨어와 사용자가 자유롭게 변경할 수 있는 신경망 가속 하드웨어 프레임워크 구조를 제공한다.
연구팀은 홀리스틱 GNN 기술의 실효성을 검증하기 위해 계산형 스토리지의 프로토타입을 자체 제작한 후, 그 위에 개발된 그래프 기계학습용 하드웨어 *RTL과 소프트웨어 프레임워크를 구현해 탑재했다. 그래프 기계학습 추론 성능을 제작된 계산형 스토리지 가속기 프로토타입과 최신 고성능 엔비디아 GPU 가속 시스템(RTX 3090)에서 평가한 결과, 홀리스틱 GNN 기술이 이상적인 상황에서 기존 엔비디아 GPU를 이용해 그래프 기계학습을 가속하는 시스템의 경우에 비해 평균 7배 빠르고 33배 에너지를 감소시킴을 확인했다. 특히, 그래프 규모가 점차 커질수록 전처리 병목현상 완화 효과가 증가해 기존 GPU 대비 최대 201배 향상된 속도와 453배 에너지를 감소할 수 있었다.
☞ RTL (Registor Transistor Logic): 저항과 트랜지스터로 구성한 컴퓨터에 사용되는 회로
정명수 교수는 "대규모 그래프에 대해 스토리지 근처에서 그래프 기계학습을 고속으로 추론할 뿐만 아니라 에너지 절약에 최적화된 계산형 스토리지 가속 시스템을 확보했다ˮ며 "기존 고성능 가속 시스템을 대체해 초대형 추천시스템, 교통 예측 시스템, 신약 개발 등의 광범위한 실제 응용에 적용될 수 있을 것ˮ이라고 말했다.
한편 이번 연구는 미국 산호세에서 오는 2월에 열릴 스토리지 시스템 분야 최우수 학술대회인 `유즈닉스 패스트(USENIX Conference on File and Storage Technologies, FAST), 2022'에 관련 논문(논문명: Hardware/Software Co-Programmable Framework for Computational SSDs to Accelerate Deep Learning Service on Large-Scale Graphs)으로 발표될 예정이다.
해당 연구는 삼성미래기술육성사업 지원을 받아 진행됐고 자세한 내용은 연구실 웹사이트(http://camelab.org)에서 확인할 수 있다.
초대규모 그래프 프로세싱 시뮬레이션 기술 개발
우리 대학 연구진이 오늘날 정보통신(IT) 분야에서 광범위하게 사용되는 그래프 타입의 데이터를 실제로 저장하지 않고도 알고리즘을 계산할 수 있는 `그래프 프로세싱 시뮬레이션'이라는 신개념 기술을 세계 최초로 개발하는 데 성공했다. 데이터를 저장할 필요가 없어 1조 개 간선의 초대규모 그래프도 PC 한 대로 처리가 가능하다.
우리 대학 전산학부 김민수 교수 연구팀은 1조 개 간선의 초대규모 그래프에 대해 데이터 저장 없이 알고리즘을 계산할 수 있는 신개념 기술을 세계 최초로 개발했다고 23일 밝혔다.
오늘날 웹, SNS, 인공지능, 블록체인 등의 광범위한 분야들에서 그래프 타입의 데이터에 대한 다양한 알고리즘들의 연구가 매우 중요하다. 그러나 그래프 데이터의 복잡성으로 인해 그 크기가 커질 때 막대한 규모의 컴퓨터 클러스터가 있어야만 알고리즘 계산이 가능하다는 문제가 있다.
김 교수 연구팀은 이를 근본적으로 해결하는 T-GPS(Trillion-scale Graph Processing Simulation)라는 기술을 개발했다. 이 T-GPS 기술은 그래프 데이터를 실제로 디스크에 저장하지 않고도 마치 그래프 데이터가 저장돼 있는 것처럼 알고리즘을 계산할 수 있고, 계산 결과도 실제 저장된 그래프에 대한 알고리즘 계산과 완전히 동일하다는 장점이 있다.
그래프 알고리즘은 그래프 처리 엔진 상에서 개발되고 실행된다. 이는 산업적으로 널리 사용되는 SQL 질의를 데이터베이스 관리 시스템(DBMS) 엔진 상에서 개발하고 실행하는 것과 유사한 방식이다.
지금까지는 그래프 알고리즘을 개발하기 위해 먼저 합성 그래프를 생성 및 저장한 후, 이를 다시 그래프 처리 엔진에서 메모리로 적재해 알고리즘을 계산하는 2단계 방법을 사용했다. 그래프 데이터는 그 복잡성으로 인해 전체를 메모리로 적재하는 것이 요구되며, 그래프의 규모가 커지면 대규모 컴퓨터 클러스터 장비가 있어야만 알고리즘을 개발하고 실행할 수 있다는 커다란 단점이 있었다.
김 교수팀은 합성 그래프와 그래프 처리 엔진 분야에서 국제 최고 권위의 학술대회에 매년 논문을 발표하는 등 세계 최고의 기술력을 보유하고 있으며, 그 기술들을 바탕으로 기존 2단계 방법의 문제를 해결했다.
그래프 데이터상에서 그래프 알고리즘이 계산을 위해 접근하는 부분을 짧은 순간 동안 실시간으로 생성해, 마치 그래프 데이터가 존재하는 것처럼 알고리즘을 계산하는 것이다. 이때 그래프 데이터를 아무렇게 실시간 생성하는 것이 아니라 합성 그래프 모델에 따라 생성하고 저장한 것과 동일하도록 실시간 생성하는 것이 핵심 기술 중 하나다.
또한, 그래프 처리 엔진이 실시간으로 생성되는 그래프를 실제 그래프처럼 인식하고 알고리즘을 완전히 동일하게 계산하도록 엔진을 수정한 것이 또 다른 핵심 기술이다.
김민수 교수 연구팀은 T-GPS 기술을 종래의 2단계 방법과 성능을 비교한 결과, 종래의 2단계 방법이 11대의 컴퓨터로 구성된 클러스터에서 10억 개 간선 규모의 그래프를 계산할 수 있었던 반면, T-GPS 기술은 1대의 컴퓨터에서 1조 개 간선 규모의 그래프를 계산할 수 있어 컴퓨터 자원 대비 10,000배 더 큰 규모의 데이터를 처리를 할 수 있음을 확인했다. 또한, 알고리즘 계산 시간도 최대 43배 더 빠름을 확인했다.
교신저자로 참여한 김민수 교수는 "오늘날 거의 모든 IT 분야에서 그래프 데이터를 활용하고 있는바, 연구팀이 개발한 새로운 기술은 그래프 알고리즘의 개발 규모와 효율을 획기적으로 높일 수 있어 산업적 측면에서 파급 효과가 매우 클 것으로 기대한다ˮ 라고 말했다.
이번 연구에는 김 교수의 제자이자 캐나다 워털루 대학에 박사후 연구원으로 재직 중인 박힘찬 박사가 제1 저자로, 김 교수가 교신저자로 참여했으며 지난 22일 그리스 차니아에서 온라인으로 열린 데이터베이스 분야 최고 국제학술대회 중 하나인 IEEE ICDE에서 발표됐다. (논문명 : Trillion-scale Graph Processing Simulation based on Top-Down Graph Upscaling).
한편, 이 연구는 한국연구재단 선도연구센터 사업 및 중견연구자 지원사업, 과기정통부 IITP SW스타랩 사업의 지원을 받아 수행됐다.
딥러닝으로 소재 합성 가능성 예측 기술 개발
우리 대학 생명화학공학과 정유성 교수 연구팀이 딥러닝을 활용해 소재의 합성 가능성을 높은 정확도로 예측하는 기술을 개발했다고 22일 밝혔다.
신소재 설계의 궁극적인 목표는 소재를 설계하고 그것을 실험적으로 합성하는 것이지만 현실적으로는 새롭게 설계된 대부분의 소재가 실제 합성 단계에서 성공하지 못하고 버려지는 경우가 많다. 이는 불필요한 시간과 자원의 낭비를 초래한다. 소재의 합성 여부는 반응 조건, 열역학, 반응 속도, 소재 구조 등 다양한 요인에 의해서 결정되기 때문에, 소재의 합성 가능성을 예측하는 것은 매우 도전적인 과제로 여겨져 왔다.
이런 문제 해결을 위한 방안으로 간단한 열역학적 안정성만을 고려해 고체 소재의 합성 가능성을 추정하지만 정확도는 매우 떨어지는 편이다. 일례로 에너지적으로 안정된 물질이라 하더라도 합성이 안 되는 경우가 아주 빈번하고, 또 반대로 *준안정 상태의 물질들도 합성되는 경우가 많기 때문이다. 따라서, 합성 가능성에 대한 예측 정확도를 획기적으로 높일 수 있는 방법론의 개발이 시급한 과제로 여겨져 왔다.
☞ 준안정(metastable) 상태 : 어떤 물질이 열역학적으로 안정된 ‘바닥 상태’가 아닌 상태
정유성 교수 연구팀이 개발한 소재 합성 가능성 예측기술은, 기존 합성이 보고된 고체 소재들의 구조적 유사성을 그래프 합성 곱 신경망(GCN, Graph Convolutional Neural Network)으로 학습해 새로운 소재의 합성 가능성을 예측할 수 있다. 특히, 현재까지 합성이 안 된 물질이라 하더라도 합성이 성공할 가능성은 여전히 존재하기 때문에 참값(레이블)을 이미 알고 학습을 진행하는 일반적인 지도학습과는 달리 양의 레이블(+)을 가진 데이터와 레이블이 없는 데이터(Positive-Unlabeled, P-U)를 이용한 분류 모델 기반의 준 지도학습을 사용했다.
정 교수팀은 5만여 종에 달하는 이미 합성이 보고된 물질과 8만여 종의 *가상 물질로 이뤄진 `머터리얼스 프로젝트(Materials Project, MP)'라는 소재 관련 데이터베이스를 이용해 모델을 구축했다. 연구팀 관계자는 이 신기술을 활용한 결과, 소재들의 합성 가능성을 약 87% 정확하게 예측할 수 있다고 설명했다. 정 교수팀은 또 이미 합성된 소재들의 열역학적 특성을 분석한 결과, 열역학적 안정성만으로는 실제 소재의 합성 가능성을 예측할 수 없다는 사실도 알아냈다.
☞ 가상 물질(hypothetical materials) : 기존에 합성되어 보고된 물질들을 원소 치환해서 얻어지는 가상의 물질들로 아직 실험적으로 합성 보고가 이루어지지 않은 물질
이와 함께 머터리얼스 프로젝트(MP) 데이터베이스 내에 합성 가능성 점수가 가장 높은 100개의 가상 물질에 대해 문헌조사를 실시한 결과, 이들 중 머터리얼스 프로젝트(MP) 데이터베이스에는 합성 여부가 아직 알려지지 않았지만 실제로 합성돼 논문에 보고된 소재만도 71개에 달하는 것을 확인했고 이를 통해 모델의 높은 정확도를 추가로 입증했다.
정유성 교수는 "빠른 신소재 발견을 위해 다양한 소재 설계 프레임워크가 존재하지만 정작 설계된 소재의 합성 가능성에 관한 판단은 전문가 직관의 영역으로 남아 있다ˮ면서 "이번에 개발한 합성 가능성 예측 모델은 새로운 소재를 설계할 때 실제로 합성 가능성을 실험 전에 미리 판단할 수 있어 새로운 소재의 개발시간을 단축하는 데 큰 도움이 될 것ˮ이라고 말했다.
생명화학공학과 장지돈 박사과정과 구근호 박사후연구원이 공동 제1 저자로 참여한 이번 연구결과는 미국화학회가 발행하는 국제학술지 미국화학회지(Journal of the American Chemical Society) 온라인 10월 26일 자에 실렸다. (논문명: Structure-Based Synthesizability Prediction of Crystals Using Partially Supervised Learing)
한편 이번 연구는 과학기술정보통신부 산하 한국연구재단의 기초연구사업(중견연구)과 미래소재 디스커버리 사업 지원을 받아 수행됐고, 연구에 KISTI의 슈퍼컴퓨터를 활용했다.