
< KAIST 신인식 교수 >
우리 대학은 전산학부 신인식 교수가 실시간 시스템 분야에서 세계 최고 권위를 지닌 국제 학술대회 IEEE 실시간 시스템 심포지엄(RTSS, Real-Time Systems Symposium)에서 ‘가장 영향력 있는 논문상(Influential Paper Award) 2025’을 수상했다고 21일 밝혔다.
이 상은 발표 후 10년 이상 학계와 산업계 전반에 지속적인 영향을 미친 논문에 수여되는 세월의 검증을 거친 상(Test-of-Time Award)으로, 한국 연구자가 이 상을 받은 것은 이번이 처음이다. 시상식은 지난 4일(현지시간) 미국 보스턴에서 열린 IEEE RTSS 2025에서 진행됐다.
신 교수의 수상 논문은 2003년 미국 펜실베이니아대학교 이인섭 교수와 공동 발표한 ‘주기적 자원 모델(Periodic Resource Model)’에 관한 연구다. 이 연구는 복잡한 기계나 시스템을 한꺼번에 검증하려 하지 않고, 레고 블록처럼 작은 부품 하나하나가 정해진 시간 약속을 잘 지키는지만 먼저 개별적으로 확인한 뒤, 이들을 다시 조립해도 전체가 안전하게 작동함을 보장하는 방법을 만든 것이다.
※논문명: Periodic Resource Model for Compositional Real-Time Guarantees, DOI: 10.1109/REAL.2003.1253249
이 덕분에 자율주행차나 항공기, 산업용 로봇 처럼 순간의 지연도 허용되지 않는 실시간 시스템을 더 정확하고 안전하게 설계할 수 있게 됐다. 특히 복잡성이 급격히 증가하는 현대 실시간 시스템에서, 시스템 전체를 한 번에 분석해야 했던 기존의 한계를 극복했다.
신 교수는 시스템을 작은 모듈(부품) 단위로 나누어 각 모듈이 시간 제약을 만족하는지를 검증하고, 이를 다시 결합하더라도 전체 시스템의 안전성이 보장됨을 수학적으로 증명하는 방법을 제시했다. 이로써 현대 실시간 스케줄링 이론의 기초를 정립한 연구로 평가받고 있다.
해당 논문은 발표 당시인 2003년에도 RTSS에서 한국인 최초로 ‘최우수 논문상(Best Paper Award)’을 수상했으며, 20년이 지난 지금 다시 한 번 그 학문적·산업적 가치를 공식적으로 인정받게 됐다.
이는 이론에 그치지 않고, 지난 20년간 자율주행, 항공·우주 제어, 산업 자동화 등 안전이 필수적인 다양한 산업 현장에서 핵심 분석 도구로 활용돼 왔기 때문이다.
IEEE 기술위원회는 “이 모델은 현대 실시간 시스템 설계의 핵심 언어로 자리 잡았으며, 지난 20년간 연구와 산업의 방향을 이끌어왔다”고 평가했다. 수상 논문은 현재 미국과 유럽 주요 대학의 교과서에도 수록돼 해당 분야의 표준 이론으로 자리 잡았다.
신 교수는 “학자로서 평생 가장 받고 싶었던 상이 바로 이 상”이라며, “20년 전의 연구가 실제로 세상에 큰 영향을 미쳤다는 점을 인정받아 영광이며, 이 이론을 실제 시스템에 적용해 준 많은 연구자와 기업 덕분”이라고 소감을 밝혔다.
한편 신 교수는 실시간 시스템 연구에 이어 인공지능(AI) 분야로 연구 영역을 확장하고 있다. 교원 창업 기업 ‘플루이즈(Fluiz)’를 설립해, 사용자가 말로 스마트폰 앱을 실행할 수 있는 모바일 AI 에이전트 기술인 ‘FluidGPT’를 개발했으며, 해당 기술은 최근 과학기술정보통신부 주최 ‘AI 챔피언 경진대회’에서 우승을 차지했다. 전문가들은 신 교수가 기초 이론과 응용 기술을 아우르며 연구와 산업을 연결하는 드문 성과를 보여주고 있다고 평가하고 있다.
우리 대학은 김재철AI대학원 신기정 교수 연구팀이 개인의 나이, 역할 등 특성이 집단 관계에 미치는 영향을 분석해 복잡한 사회 집단행동을 예측하는 획기적인 AI 기술을 개발했다고 9일 밝혔다. 연구팀은 이 기술로 미국전기전자학회(IEEE) 주관 세계적 데이터마이닝 학술대회 'IEEE ICDM'에서 최우수 논문상(Best Paper Award)을 수상하는 쾌거를 이루었다. 이는 전 세계 785편 중 단 1편에게만 주어지는 최고 권위의 상으로, 한국 대학 연구팀으로서는 23년 만의 수상으로 KAIST가 다시 한 번 세계 연구 무대에서 기술 리더십을 입증했다. 오늘날 온라인 커뮤니티·연구 협업·단체 채팅 등 다수가 동시에 참여하는 집단 상호작용은 사회 곳곳에서 폭발적으로 늘고 있다. 그러나 이러한 집단 행동이 어떤 구조로 형성되고, 개인의 특성이 어떻게 영향을 미치는지를 동시에 정밀하게 설명해 내는 기술은 부족했다. 신기정 교수 연구팀은 이 한계를 뛰어넘
2025-12-09기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다. 우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다. 기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한
2025-11-06세계 최대 전기·전자 기술 학회인 IEEE(Institute of Electrical and Electronics Engineers)의 캐슬린 크레이머(Kathleen A. Kramer) 회장이 30일 우리 대학을 방문해 ‘인공지능의 미래를 함께 그리다’라는 주제로 특별 강연을 진행했다. 전기및전자공학부(학부장 유승협)의 초청으로 콜로퀴엄 연단에 선 크레이머 회장은 IEEE의 핵심 비전인 ‘인류를 위한 기술 발전(Advancing Technology for Humanity)’을 바탕으로 “인공지능(AI)은 더 이상 먼 미래의 개념이 아니라, 혁신의 중심에서 인류의 삶을 변화시키는 기술이 되었다”라고 강조했다. 이어 “기술은 인간의 가치를 중심으로 발전해야 하며, 윤리와 포용성을 기반으로 한 인공지능이 진정한 혁신을 이끌 수 있다”라고 덧붙이며, 인공지능의 발전 방향과 기술
2025-11-03물방울이 맺힌 유리창 밖을 보면 물체의 형체를 선명하게 알아볼 수 없는 것처럼, 카메라 센서에도 산란에 의해 뒤섞인 빛이 들어오면 흐린 영상이 촬영된다. 우리 연구진은 이러한 손상 영상을 시간의 연속성을 분석하여 선명하게 복원하는 AI 기술을 개발했다. 영상 촬영에선 산란 효과 뿐만 아니라 아지랑이와 같은 수차 효과, 야간에 발생하는 광자 잡음 효과 등 다양한 영상 손상 현상이 일어날 수 있는데, 이번에 개발된 기술은 이러한 다양한 손상 현상에 범용적으로 적용될 수 있어 향후 의료·방산·로봇 비전 분야에서 커다란 전환점을 마련할 것으로 기대된다. 우리 대학 바이오및뇌공학과 장무석 교수와 김재철AI대학원 예종철 교수 공동 연구팀이 움직이는 산란 매질 너머의 숨겨진 영상을 복원할 수 있는 ‘비디오 디퓨전 기반 영상 복원 기술(시간축 정보 정합성을 활용해 흐릿하거나 손상된 영상을 디퓨전 모델로 되살리는 기술)’을 세계 최초로 개발했다고
2025-09-01산업및시스템공학과 주상현 박사과정(지도교수: 김현정)이 2025년 8월 17일부터 21일까지 열린 제 21회 IEEE CASE (International Conference on Automation Science and Engineering)에서 Best Student Paper Award를 수상했다. IEEE CASE는 자동화 분야 최대 규모의 국제학회로, 해당 학회에서 한국 기관 소속 연구자가 수상한 첫 사례로 의미가 크다. 수상 논문 제목은 “K-Wafer Cyclic Sequence for Scheduling of Dual-Armed Cluster Tool with Purge Operation”으로, 반도체 및 디스플레이 제조 공정에서 핵심적으로 사용되는 Cluster Tool 장비의 로봇 시퀀스 최적화를 다루고 있다. 특히, 품질에 직접적인 영향을 주는 챔버 클리닝 작업을 포함한 공정에서 기존 방법론들이 최적해를 보장하지 못하는 한계를 극복
2025-08-25