김주호 교수, 유엔 ‘세계 최초’ AI 과학패널 한국인 유일 위원 선정
우리 대학은 전산학부 김주호 교수가 유엔(UN)이 출범시킨 세계 최초의 전 지구적 AI 과학 평가기구인 ‘독립 국제 인공지능 과학패널(Independent International Scientific Panel on Artificial Intelligence)’ 위원으로 선정됐다고 13일 밝혔다.
이번 선발은 전 세계 2,600명 이상이 지원한 가운데 AI 분야 전문성, 다학제적 시각, 지역·성별 균형 등을 종합적으로 고려해 안토니오 구테레스(Antonio Guterres) 유엔 사무총장이 직접 최종 40명을 확정했다. 김 교수는 대한민국 국적자로는 유일하게 이름을 올렸다.
구테레스 사무총장은 해당 패널을 AI에 특화된 “세계 최초의, 전 지구적이고 독립적인 과학 평가기구”(제79차 유엔 총회에서 공식 채택된 결의안 번호 325번 79/325)라고 강조했다. 이 패널은 인공지능이 경제·사회 전반에 미치는 영향을 과학적으로 분석·평가하고, 국가 간 AI 격차 해소와 국제사회의 공동 대응을 지원하는 핵심 자문기구 역할을 수행할 예정이다.
김 교수는 튜링상 수상자인 요슈아 벤지오(Yoshua Bengio), 노벨평화상 수상자인 마리아 레사(Maria Ressa) 등 세계적 석학들과 함께 활동하게 된다.
인간-컴퓨터 상호작용(HCI)과 인간-AI 상호작용(HAI) 분야를 선도해 온 김 교수는 2022년 세계 최고 권위의 AI 학술대회 ‘신경정보처리시스템학회(NeurIPS)’ 기조강연자로 초청됐으며, ‘ACM CHI’ 최우수논문상을 포함해 주요 국제학술대회에서 20회 이상 논문상을 수상했다.
또한 2024년에는 기업의 AI 도입 효과를 측정하고 업무 구조를 재설계하는 플랫폼 ‘스킬벤치(SkillBench)’를 공동 창업하며 연구 성과의 산업 확산에도 앞장서고 있다.
우리 대학은 이번 선정을 책임 있는 AI 연구 역량이 국제사회로부터 공인받은 상징적 성과로 평가했다. 특히 AI 서울 정상회의, APEC AI 이니셔티브 등 글로벌 AI 거버넌스 논의에서 한국이 지속적으로 기여해 온 점 역시 긍정적으로 반영된 것으로 보고 있다.
이광형 총장은 “김주호 교수의 유엔 독립 국제 인공지능 과학패널 위원 선정은 KAIST를 넘어 대한민국 AI 연구의 위상을 보여주는 쾌거”라며 “KAIST는 국제사회와 함께 AI의 사회적·경제적 파급효과를 과학적으로 분석하고, 책임 있는 AI 발전을 위한 정책 방향 제시에 적극 기여하겠다”고 밝혔다.
GPU 덜쓰고 챗GPT 쓴다..카카오 AI 육성 프로젝트 대상 수상
지금의 챗GPT 등 대규모 언어모델(LLM) 서비스는 대부분 고가의 GPU 서버에 의존해 운영되고 있다. 이러한 구조는 서비스 규모가 커질수록 비용과 전력 소모가 급격히 증가하는 한계를 안고 있다. 우리 대학 연구진이 이러한 문제를 해결할 수 있는 차세대 AI 인프라 기술을 개발했다.
우리 대학은 전산학부 박종세 교수를 중심으로 한 애니브릿지(AnyBridge) AI 팀이 GPU에만 의존하지 않고, 다양한 AI 가속기를 통합해 LLM을 효율적으로 서비스할 수 있는 차세대 AI 인프라 소프트웨어를 개발했다고 30일 밝혔다. 해당 기술은 카카오가 주최한 ‘4대 과학기술원×카카오 AI 육성 프로젝트’에서 대상을 수상했다.
이번 프로젝트는 카카오와 KAIST, GIST, DGIST, UNIST 등 4대 과학기술원이 공동으로 추진한 산학 협력 프로그램으로, AI 기술을 기반으로 한 예비 창업팀들의 기술력과 사업성을 종합적으로 평가해 우수 팀을 선발했다. 대상 팀에는 총 2,000만 원의 상금과 함께 최대 3,500만 원 규모의 카카오클라우드 크레딧이 제공된다.
애니브릿지 AI는 KAIST 전산학부 박종세 교수(대표)를 중심으로 권영진 교수, 허재혁 교수가 함께 참여한 기술 창업팀으로, AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 실제 산업 현장에서 활용 가능한 기술 개발을 목표로 하고 있다. 또한 미국 실리콘밸리 AI 반도체 시스템 스타트업 삼바노바(SambaNova)의 공동창업자이자 스탠포드대 교수인 쿤레 올루코툰(Kunle Olukotun) 교수가 자문위원으로 참여해, 글로벌 시장을 염두에 둔 기술 및 사업 확장을 함께 추진하고 있다.
애니브릿지 팀은 현재 대부분의 LLM 서비스가 고가의 GPU 인프라에 의존하고 있어, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계를 안고 있다는 점에 주목했다. 연구진은 이러한 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU 뿐만 아니라 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층의 부재에 있다고 분석했다.
이에 애니브릿지 팀은 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 제안했다. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 ‘멀티 가속기 LLM 서빙 런타임 소프트웨어’를 핵심 기술로 제시해 높은 평가를 받았다.
이 기술을 통해 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스의 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점으로 평가된다.
또한 애니브릿지 팀은 다년간 축적한 LLM 서빙 시스템 시뮬레이션 연구를 바탕으로, 실제 대규모 인프라를 구축하지 않고도 다양한 하드웨어·소프트웨어 설계 조합을 사전에 검증할 수 있는 연구 기반을 갖추고 있다. 이러한 점은 기술의 완성도와 산업적 실현 가능성을 동시에 보여줬다는 평가를 받았다.
박종세 KAIST 전산학부 교수는 “이번 수상은 GPU 중심 AI 인프라의 한계를 넘어, 다양한 AI 가속기를 통합하는 시스템 소프트웨어의 필요성을 인정받은 결과”라며 “연구 성과를 산업 현장과 창업으로 확장할 수 있었다는 점에서 의미가 크다”고 말했다. 이어 “산업 파트너들과의 협력을 통해 차세대 LLM 서빙 인프라 핵심 기술로 발전시켜 나가겠다”고 밝혔다.
이번 수상은 KAIST의 연구 성과가 논문을 넘어 차세대 AI 인프라 기술과 창업으로 이어지고 있음을 보여주는 사례로 평가된다. 애니브릿지 AI 팀은 향후 카카오 및 관련 산업 파트너들과의 협력을 통해 기술 고도화와 실증을 진행하고, 차세대 AI 인프라 소프트웨어 분야의 핵심 기술로 발전시켜 나갈 계획이다.
AI도 ‘경력직’ 시대...배운 지식 쉽게 가르친다
새 스마트폰을 바꿀 때마다 연락처와 사진을 처음부터 다시 옮겨야 한다면 얼마나 불편할까. 지금의 인공지능(AI) 모델들도 이와 비슷한 상황에 놓여 있다. 성능이 더 좋은 새로운 ChatGPT 같은 AI 모델이 등장할 때마다, 특정 분야의 지식을 갖추기 위해 막대한 데이터와 비용을 들여 다시 학습해야 했기 때문이다. 한국 연구진이 이러한 비효율을 해결할 수 있는 AI 모델 간 ‘지식 이식’ 기술을 개발했다.
우리 대학은 전산학부 김현우 교수 연구팀이 고려대학교(총장 김동원) 연구팀과 공동연구를 통해, 서로 다른 인공지능 모델 사이에서 학습된 지식을 효과적으로 ‘이식’할 수 있는 새로운 기술을 개발했다고 27일 밝혔다.
최근 인공지능 분야에서는 사진과 글을 함께 이해하는 시각–언어 모델(Vision-Language Model, VLM)이 빠르게 발전하고 있다. 이는 사용자가 사진을 보여주며 질문하면 설명을 해주는 ChatGPT와 같은 멀티모달 AI를 떠올리면 이해하기 쉽다. 이러한 모델들은 대규모 이미지와 언어 데이터를 사전 학습해, 적은 양의 데이터만으로도 새로운 분야에 비교적 빠르게 적응할 수 있다는 장점을 지닌다.
그러나 새로운 AI 모델이 나올 때마다 이러한 ‘적응 과정’을 처음부터 다시 수행해야 한다는 점이 큰 비효율로 지적돼 왔다. 기존의 적응 기법들 역시 모델 구조가 조금만 달라져도 그대로 활용하기 어렵거나, 여러 모델을 동시에 사용해야 해 메모리와 연산 비용이 크게 증가하는 한계를 안고 있었다.
연구팀은 이러한 문제를 해결하기 위해 모델의 구조나 크기에 상관없이 학습된 지식을 재사용할 수 있는 전이 가능한 적응 기법(Transferable adaptation)인 ‘TransMiter’를 제안했다. 이 기술의 핵심은 한 AI가 학습하며 쌓은 ‘적응 경험’을 다른 AI 모델로 직접 옮기는 것이다.
연구진 기술은 AI의 복잡한 내부 구조를 뜯어고치지 않고, 예측 결과(output)만 보고 배운 요령을 다른 AI에게 전해주는 방식이다. 서로 생김새가 다른 AI 모델이라도 같은 질문에 내놓은 답변을 기준으로 정리해 주면, 한 AI가 익힌 노하우를 다른 AI도 바로 활용할 수 있다. 그래서 복잡하고 시간이 많이 드는 학습 과정을 다시 거칠 필요가 없고, 속도도 거의 느려지지 않는다.
이번 연구는 그동안 모델 구조나 크기가 다르면 재사용이 거의 불가능하다고 여겨졌던 AI의 적응 지식을 모델 종류에 상관없이 정밀하게 이식할 수 있음을 처음으로 입증했다는 점에서 의미가 크다. 이를 통해 반복적인 학습 비용을 줄일 수 있을 뿐 아니라, 필요한 분야에 맞춰 거대언어모델을 실시간으로 업데이트하는 이른바 ‘지식 패치(patch)’ 기술로의 활용도 기대된다.
김현우 교수는 “이번 연구를 확장하면, 빠르게 발전하는 초거대언어모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training)의 비용을 크게 줄일 수 있다”며, “특정 분야의 전문 지식을 손쉽게 추가하는 ‘모델 패치’가 가능해질 것”이라고 설명했다.
이번 연구에는 KAIST 전산학부 송태훈 석사과정 학생, 이상혁 박사후연구원, 고려대학교 박지환 박사과정 학생이 공동 저자로 참여했으며, 김현우 교수가 교신저자를 맡았다. 연구 결과는 인공지능 분야 최고 권위의 국제 학술대회인 AAAI 2026(Association for the Advancement of Artificial Intelligence)에 구두 발표(25년 기준 채택률 4.6%)로 채택돼, 1월 25일 발표됐다.
※ 논문명: Transferable Model-agnostic Vision-Language Model Adaptation for Efficient Weak-to-Strong Generalization. DOI : https://doi.org/10.48550/arXiv.2508.08604
한편, 김현우 교수 연구실은 이번 논문을 포함해 구글 클라우드 AI와 공동 진행한 문서내의 테이블 이해를 고도화한 기술인 TabFlash 포함하여 해당 학회에 총 3편의 논문을 발표했다.
문수복 교수, 한국정보과학회 41대 회장 취임
우리대학 전산학부 문수복 교수가 한국정보과학회 제41대 회장에 선출되어, 2026년 1월 1일에 취임하여, 앞으로 1년간 학회를 이끌게 되었다.
문수복 교수는 서울대학교 컴퓨터공학부(학사 및 석사), 미국 UMass Amherst(전산학 박사)를 졸업하고, 2003년부터 우리대학 전산학부 교수로 재직중이다.
문수복 교수는 “한국정보과학회가 걸어온 50년이 넘는 빛나는 역사 위에서, 이 학회의 첫 여성 회장으로 취임하게 된 것을 큰 영광으로 생각하며, 동시에 막중한 책임을 맡게 되었음을 깊이 새기고 있다. 지난 반세기 동안 한국 정보과학의 토대를 세워 오신 선배 연구자 여러분의 헌신 위에서, 학회가 다음 세대 연구자들과 함께 더 넓은 세계로 나아갈 수 있도록 최선을 다하겠다. 또한, 국내 연구진들의 해외 학술 활동이 크게 증가하고 있는 현실 속에서, 학문적 경쟁력을 더 잘 뒷받침하는 학회가 될 수 있도록, 그 역할과 기능에 집중하겠다."라고 밝혔다.
한국정보과학회는 1973년도에 창립된 국내 ‘컴퓨터 및 소프트웨어 분야’를 대표하는 학술단체로서, 총 회원 수는 4만 7백여 명에 이른다.
신인식 교수, 한국인 최초 RTSS 최고 논문상 수상
우리 대학은 전산학부 신인식 교수가 실시간 시스템 분야에서 세계 최고 권위를 지닌 국제 학술대회 IEEE 실시간 시스템 심포지엄(RTSS, Real-Time Systems Symposium)에서 ‘가장 영향력 있는 논문상(Influential Paper Award) 2025’을 수상했다고 21일 밝혔다.
이 상은 발표 후 10년 이상 학계와 산업계 전반에 지속적인 영향을 미친 논문에 수여되는 세월의 검증을 거친 상(Test-of-Time Award)으로, 한국 연구자가 이 상을 받은 것은 이번이 처음이다. 시상식은 지난 4일(현지시간) 미국 보스턴에서 열린 IEEE RTSS 2025에서 진행됐다.
신 교수의 수상 논문은 2003년 미국 펜실베이니아대학교 이인섭 교수와 공동 발표한 ‘주기적 자원 모델(Periodic Resource Model)’에 관한 연구다. 이 연구는 복잡한 기계나 시스템을 한꺼번에 검증하려 하지 않고, 레고 블록처럼 작은 부품 하나하나가 정해진 시간 약속을 잘 지키는지만 먼저 개별적으로 확인한 뒤, 이들을 다시 조립해도 전체가 안전하게 작동함을 보장하는 방법을 만든 것이다.
※논문명: Periodic Resource Model for Compositional Real-Time Guarantees, DOI: 10.1109/REAL.2003.1253249
이 덕분에 자율주행차나 항공기, 산업용 로봇 처럼 순간의 지연도 허용되지 않는 실시간 시스템을 더 정확하고 안전하게 설계할 수 있게 됐다. 특히 복잡성이 급격히 증가하는 현대 실시간 시스템에서, 시스템 전체를 한 번에 분석해야 했던 기존의 한계를 극복했다.
신 교수는 시스템을 작은 모듈(부품) 단위로 나누어 각 모듈이 시간 제약을 만족하는지를 검증하고, 이를 다시 결합하더라도 전체 시스템의 안전성이 보장됨을 수학적으로 증명하는 방법을 제시했다. 이로써 현대 실시간 스케줄링 이론의 기초를 정립한 연구로 평가받고 있다.
해당 논문은 발표 당시인 2003년에도 RTSS에서 한국인 최초로 ‘최우수 논문상(Best Paper Award)’을 수상했으며, 20년이 지난 지금 다시 한 번 그 학문적·산업적 가치를 공식적으로 인정받게 됐다.
이는 이론에 그치지 않고, 지난 20년간 자율주행, 항공·우주 제어, 산업 자동화 등 안전이 필수적인 다양한 산업 현장에서 핵심 분석 도구로 활용돼 왔기 때문이다.
IEEE 기술위원회는 “이 모델은 현대 실시간 시스템 설계의 핵심 언어로 자리 잡았으며, 지난 20년간 연구와 산업의 방향을 이끌어왔다”고 평가했다. 수상 논문은 현재 미국과 유럽 주요 대학의 교과서에도 수록돼 해당 분야의 표준 이론으로 자리 잡았다.
신 교수는 “학자로서 평생 가장 받고 싶었던 상이 바로 이 상”이라며, “20년 전의 연구가 실제로 세상에 큰 영향을 미쳤다는 점을 인정받아 영광이며, 이 이론을 실제 시스템에 적용해 준 많은 연구자와 기업 덕분”이라고 소감을 밝혔다.
한편 신 교수는 실시간 시스템 연구에 이어 인공지능(AI) 분야로 연구 영역을 확장하고 있다. 교원 창업 기업 ‘플루이즈(Fluiz)’를 설립해, 사용자가 말로 스마트폰 앱을 실행할 수 있는 모바일 AI 에이전트 기술인 ‘FluidGPT’를 개발했으며, 해당 기술은 최근 과학기술정보통신부 주최 ‘AI 챔피언 경진대회’에서 우승을 차지했다. 전문가들은 신 교수가 기초 이론과 응용 기술을 아우르며 연구와 산업을 연결하는 드문 성과를 보여주고 있다고 평가하고 있다.
'이 생선 어디서 왔지?'...세계가 인정한 수산물 이력추적 기술 확보
우리가 마트에서 수산물을 살 때, 이 생선이 어디서 잡혔고 어떤 과정을 거쳐 내 식탁에 올랐는지 궁금했던 적이 있을 것이다. 하지만 복잡한 유통 과정으로 그 경로를 투명하게 확인하기 어려웠다. 우리 대학 연구진이 이러한 문제를 해결하고, 전 세계 어디서나 통용되는 국제 기준으로 수산물의 이동 경로를 한눈에 확인할 수 있는 디지털 기술을 개발했다.
우리 대학은 KAIST 오토아이디랩 부산혁신연구소 김대영 소장(전산학부 교수)이 개발한 GS1 국제표준 기반 디지털전환 솔루션 ‘올리오패스(OLIOPASS)’가 글로벌 수산물 이력추적 협의체인 GDST(Global Dialogue on Seafood Traceability)의 까다로운 성능 검증을 통과해, 국내 최초로 ‘GDST 호환 솔루션(Capable Solution)’ 인증을 획득했다고 19일 밝혔다.
이번 GDST 인증을 받은 기술은 전 세계에서 단 13개에 불과하다. 이 가운데 생산–가공–유통–판매에 이르는 전 과정을 빠짐없이 관리하는 ‘전 구간(Full Chain)’ 이력추적 기술을 지원하는 곳은 KAIST를 포함해 전 세계 7곳뿐이다.
GDST는 2015년 세계경제포럼(WEF)의 제안으로 설립된 국제 기구로, 수산물이 이동하는 모든 과정의 정보를 전 세계가 합의한 국제표준(GS1)에 따라 디지털로 기록하고 공유하도록 돕는다. 이는 전 세계가 함께 사용하는 ‘공급망 공통 언어’를 만드는 작업에 비유할 수 있다.
GDST는 수산물 이동 과정에서 반드시 기록해야 할 핵심 데이터(KDEs)와 언제·어디서·무엇이 이동했는지를 정의한 중요 사건(CTEs)을 국제 기준으로 정해, 수산물 이력 정보의 신뢰성을 높이는 글로벌 표준 체계다.
최근 미국과 유럽의 주요 식품유통 기업들이 GDST 기준 충족을 요구면서, 해당 기준은 글로벌 시장 진출을 위한 사실상의 필수 요건으로 자리 잡고 있다. KAIST는 2019년부터 GDST 창립 멤버로 참여해 수산물 이력추적 모델과 시스템 간 정보 연동(Interoperability) 설계에 핵심적인 역할을 해왔다.
특히 미국 식품의약국(FDA)이 2028년 7월부터 식품 이력추적 의무화(FSMA 204)를 예고한 상황에서, 이번 인증은 국내 기업들이 미국 등 글로벌 시장 규제를 충족할 수 있는 기술적 해법을 확보했다는 점에서 의미가 크다.
지난 11월 5일 인증을 받은 OLIOPASS는 KAIST의 IoT 기술과 국제표준(GS1 EPCIS 2.0, GS1 Digital Link)을 결합한 디지털 이력추적 플랫폼으로, 다양한 제품과 자산의 이동 정보를 표준화된 언어로 기록·공유하고 블록체인 기술로 위·변조를 원천 차단한다. 기업 간 시스템이 달라도 이력 데이터는 원활하게 연동된다.
또한 OLIOPASS는 AI 활용이 가능한 ‘AI-ready 데이터’ 인프라로 설계돼 대형 멀티모달 모델, AI 에이전트, 지식그래프, 온톨로지 등 차세대 AI 기술을 손쉽게 적용할 수 있다. 이를 통해 단순 이력관리를 넘어 디지털·AI 전환을 동시에 지원하는 플랫폼으로 활용된다.
김대영 KAIST 오토아이디랩 부산혁신연구소장은 “이번 인증은 글로벌 공급망 전반에서 신뢰 가능한 데이터 기술 역량을 국제적으로 인정받은 것”이라며 “OLIOPASS를 수산·식품을 넘어 의약품, 물류, 국방, 스마트시티 등 다양한 분야로 확산시켜 KAIST 기술이 세계가 함께 쓰는 플랫폼으로 성장하도록 하겠다”고 말했다.
※관련 링크: https://thegdst.org/verified-gdst-capable-solutions/
전산학부 윤성의 교수, 미국 컴퓨터학회(ACM) 특훈회원 선정
우리 대학 전산학부 윤성의 교수가 세계 최대 컴퓨터 과학 분야 학술 단체인 미국 컴퓨터학회(ACM, Association for Computing Machinery)의 ‘특훈회원(Distinguished Member)’으로 선정됐다.
ACM 특훈회원은 컴퓨터 및 정보기술 분야에서 15년 이상의 경력을 보유하고, 탁월한 연구 업적과 기술적 리더십을 통해 해당 분야 발전에 크게 기여한 연구자에게 주어지는 고위 회원 등급이다.
전 세계 약 11만 명의 ACM 회원 중 상위 10% 이내에 해당하는 인원만이 이 자격을 얻을 수 있으며, 매년 약 50~60명만이 엄선되는 매우 영예로운 자리다.
윤성의 교수는 ‘피지컬 AI(Physical AI)’ 분야의 권위자로, ▲대용량 3D 모델을 초고속으로 처리하는 스케일러블 렌더링(Scalable Rendering) ▲물리 기반 시뮬레이션 및 데이터 생성 ▲AI·컴퓨터 비전 학습 기법 등에서 독창적인 연구 성과를 인정받아 이번 영예를 안았다.
윤 교수가 개발한 기술들은 현재 3D 그래픽스를 넘어 로보틱스, 자율주행, 시뮬레이션 기반 AI 등 미래 산업 전반의 핵심 기반 기술로 폭넓게 활용되고 있다.
윤 교수는 2007년 KAIST 부임 이후, 로봇 경로 계획 및 강화학습, 대규모 검색 기술 등 다양한 융합 연구를 주도해왔다. 이러한 연구 결과는 ACM SIGGRAPH, IEEE CVPR, ICRA 등 세계 최고 수준의 학회에서 꾸준히 발표되었으며, ‘Test-of-Time Award’와 ‘Best Paper Award’ 수상, 다수의 저널 초청 논문 선정 등을 통해 국제적 영향력을 입증해왔다.
윤 교수는 서울대학교에서 전산학 학·석사를 마치고 미국 노스캐롤라이나 대학교 채플힐(UNC–Chapel Hill)에서 박사학위를 받았다. 이후 미국 로렌스 리버모어 국립연구소(LLNL)에서 박사후연구원으로 재직하며 대규모 데이터 처리 기술을 연구한 바 있다.
영상 속 1등이 어디죠? ‘딱 그 순간’을 찾아내는 AI 기술 세계 1위
‘카메라가 다른 곳을 비추는 사이 사라진 물체는 무엇 인가요?’라는 복잡한 질문이 나오면 AI는 많은 경우 영상 속 실제 상황을 보고 판단하는 것이 아니라, 언어 패턴에 의존해 ‘그럴듯한 답’을 추측하는 문제가 있다. 우리 대학 연구진은 이 한계를 해결하기 위해 영상 속 ‘딱 중요한 순간(Trigger moment)’을 AI가 스스로 찾아내도록 하는 기술을 개발했고, 이 기술로 국제 AI 대회에서 우수성을 입증했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 이화여대 노준혁 교수 연구팀과 공동 연구를 통해, 세계적 권위의 컴퓨터 비전 학회 ICCV 2025에서 열린 Perception Test Challenge의 영상 근거 기반 질의응답(Grounded Video Question Answering) 트랙에서 1위를 차지했다고 28일 밝혔다.
이번 ICCV 2025에서 열린 인지 테스트 대회(Perception Test Challenge)는 구글 딥마인드(Google DeepMind)가 주관하여 총 상금 50,000 유로(한화 약 8,300만원)가 걸린 대회로, 영상·음성·텍스트 등 다양한 데이터를 종합적으로 이해하는 멀티모달 AI의 인지 및 추론 능력을 평가한다. 특히 언어 중심 편향을 벗어나 실제 영상 근거를 바탕으로 판단하는 능력이 핵심 평가 요소다.
우리 대학 연구팀은 영상 전체를 무작정 분석하는 기존 방식과 달리, AI가 정답을 위해 꼭 필요한 핵심 장면(Trigger moment)을 먼저 찾아내도록 만드는 새로운 기술을 개발했다. 쉽게 말하면, “이 질문에 답하려면 이 장면이 결정적이야!”를 AI가 스스로 찾아내도록 설계한 기술이다.
이 프레임워크를 연구팀은 CORTEX(Chain-of-Reasoning for Trigger Moment Extraction)라고 부른다.
연구팀의 시스템은 서로 다른 기능을 수행하는 세 모델이 순차적으로 작동하는 3단계 구조로 구성된다. 먼저 추론 AI(Gemini 2.5 Pro)가 질문에 답하기 위해 어느 순간을 봐야 하는지 사고하고 딱 그 순간(Trigger moment) 후보를 찾는다. 다음으로 객체 위치 찾기 모델(Grounding 모델, Molmo-7B)이 해당 순간 화면 속 사람·차·사물의 정확한 위치(좌표)를 파악한다. 마지막으로 추적 모델(Tracking 모델, SAM2)이 선택된 한 장면을 기준으로 앞뒤 시간대의 객체 움직임을 정밀하게 추적해 오류를 줄인다.
즉, ‘핵심 장면 한 컷을 정확히 찍고, 그 장면을 중심으로 정답 근거를 추적하는 방식’덕분에 영상 초반 오판이나 가려짐 같은 문제도 크게 줄었다.
총 23개 팀이 참여한 영상 근거 기반 질의응답(Grounded VideoQA) 트랙에서 KAIST팀 SGVR Lab(Scalable Graphics, Vision & Robotics Lab)은 ‘고차 추적 정확도(HOTA, Higher Order Tracking Accuracy)’지표에서 0.4968점을 기록하며 2등 미국 콜럼비아대의 0.4304점을 압도적인 점수 차로 상회하며 1위를 차지했다. 이는 전년도 우승 기록 0.2704점보다도 약 두 배에 가까운 성과다.
이 기술은 실생활에서도 넓게 쓰일 수 있다. 자율주행차는 사고 위험이 있는 순간을 정확히 보고, 로봇은 주변 상황을 더 똑똑하게 이해한다. 또 보안·감시 시스템은 중요한 장면을 빠르게 찾아내고, 미디어 분석에서는 사람이나 사물의 행동을 시간 순서대로 정확히 추적할 수 있다.
즉, AI가 “영상 속 실제 근거”를 보고 판단할 수 있도록 만드는 핵심 기술이다. 특히 영상 속 객체가 시간에 따라 어떻게 행동하는지 정확히 짚어내는 능력은 향후 AI의 실제 현장 적용을 크게 확장할 것으로 기대된다.
이번 연구는 ICCV 2025, the 3rd Perception Test Challenge 학회에서 10월 19일자 발표하였다.
이 성과는 과학기술정보통신부 기초연구사업 중견연구와 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 및 AGI 사업 ‘체화형 AGI를 위한 현실 세계 구축과 인지 에이전트 기반 이원 역량 접근법’ 과제의 지원을 받아 수행되었다.
권영진 교수팀, 구글 어워드 수상...‘실제 CPU 없이 버그 잡는다’
최신 CPU는 구조가 복잡해 여러 작업을 동시에 처리하는 과정에서 명령 순서가 뒤섞이는 ‘동시성 버그’가 발생할 수 있으며, 이는 보안 문제로까지 이어질 수 있음에도 기존 방식으로는 발견이 매우 어려웠다. 우리 대학 연구진은 실제 칩 없이도 CPU 내부 동작을 가상 환경에서 정밀하게 재현해 버그를 자동 탐지하는 기술을 세계 최초 수준으로 개발했으며, 이를 통해 최신 리눅스 커널에서 새로운 버그 11건을 찾아 수정하는 데 성공했다.
우리 대학은 전산학부 권영진 교수 연구팀이 구글이 수여하는 ‘Research Scholar Award’(시스템 분야)를 수상했다고 21일 밝혔다.
Google Research Scholar Award는 인공지능, 시스템, 보안, 데이터 관리 등 다양한 분야에서 혁신적 연구를 수행하는 신진 교수(Early-Career Professors)를 지원하기 위해 2020년부터 시행된 글로벌 연구 지원 프로그램이다.
구글 리서치 연구진이 직접 심사하며, 전 세계 수백 명 중 극소수만 선정되는 매우 경쟁적인 프로그램으로 알려져 있다. 특히 이 상은 AI·컴퓨터 시스템 분야에서 세계적으로 가장 권위 있는 산업계 연구 지원 프로그램 중 하나로 인정받고 있으며, 국내 수상 사례도 드물다.
■ 최신 Apple M3·ARM 서버에서 발생하는 동시성 버그 탐지 기술 개발
권 교수팀은 Apple M3(애플의 최신 세대 컴퓨터 프로세서 칩)와 같은 최신 ARM(전력을 적게 쓰고 효율이 높은 CPU 설계 방식) 기반 서버에서 발생하는 동시성 버그(concurrency bug)를 자동으로 탐지하는 기술을 개발했다.
동시성 버그란 CPU가 여러 작업을 동시에 처리하는 과정에서 작업 순서가 꼬여 발생하는 오류로 컴퓨터가 갑자기 멈추거나 해커가 시스템을 공격하는 통로가 될 수 있는 심각한 보안 취약점이다. 그러나 기존 테스트 방식만으로는 이러한 오류를 찾아내기 매우 어려웠다.
■ 실제 CPU 없이도 CPU 내부 동작을 재현해 버그를 자동 탐지
권 교수팀의 핵심 성과는 ‘실제 칩 없이도 CPU 내부 동작을 가상 환경에서 그대로 재현하는 기술’이다. 이 기술을 활용하면 CPU를 분해하거나 실제 칩을 사용하지 않아도 명령이 어떤 순서로 실행되는지, 어디에서 문제가 생기는지 소프트웨어만으로 정밀하게 분석할 수 있다.
이 시스템을 기반으로 리눅스 운영체제를 구동해 자동으로 버그를 탐지한 결과, 연구팀은 최신 리눅스 커널*에서 신규 버그 11개를 발견했고 이를 개발자 커뮤니티에 보고해 모두 수정되었다.
*리눅스 커널(Linux kernel): 전 세계 서버·슈퍼컴퓨터·스마트폰(안드로이드)의 기반이 되는 핵심 운영체제 엔진으로 CPU·메모리·저장장치를 모두 관리하는 시스템의 ‘심장’ 역할을 담당함
구글은 이 기술을 ‘자사 인프라에도 매우 중요한 기술’로 평가하며 해당 Award를 수여했다.
이번 기술은 리눅스뿐 아니라 안드로이드, 윈도우 등 여러 운영체제에도 적용 가능한 범용성을 지닌 것으로 평가되며, 연구팀은 소프트웨어를 오픈소스(GitHub)로 공개해 학계·산업계 누구나 활용할 수 있도록 했다.
권영진 교수는 “이번 수상은 KAIST 시스템 연구의 국제적 경쟁력을 입증한 것”이라며 “앞으로도 안전하고 신뢰성 높은 컴퓨팅 환경 구축을 위한 연구를 지속하겠다”고 말했다.
※ Google Scholar Award 수상 페이지: https://research.google/programs-and-events/research-scholar-program/recipients/
GitHub(기술 오픈소스): https://github.com/casys-kaist/ozz
AI보다 정확한 C→러스트 자동 변환 원천 기술로 전 세계 주목
운영체제 등 전 세계 핵심 소프트웨어의 기반인 C 언어가 보안 한계에 직면한 가운데, 우리 대학 연구진이 이를 대체할 러스트(Rust)로의 정확한 자동 변환을 위한 핵심 원천 기술 연구를 선도적으로 이끌고 있다. 기존 인공지능(LLM) 방식의 한계였던 ‘변환의 수학적 정확성’을 증명하고, C 언어의 보안 문제를 러스트로 자동 변환하여 해결하여, 향후 소프트웨어 보안 연구의 새로운 방향과 비전을 제시함으로써, 세계 최고 권위 학술지 CACM 표지 논문으로 선정되고, KAIST는 컴퓨터 과학 분야에서 세계적 연구 리더십을 입증했다.
우리 대학은 전산학부 류석영 교수 연구팀(프로그래밍 언어 연구실)의 논문이 세계 최대 컴퓨터학회인 ACM(Association for Computing Machinery)이 발행하는 최고 권위 학술지 CACM(Communications of the ACM) 11월호 표지 논문으로 선정되었다고 9일 밝혔다.
이번 논문은 류석영 교수 연구팀이 개발한 C 언어를 러스트(Rust)로 자동 변환하는 기술을 종합하여 다루었으며 향후 이 연구가 나아가야 할 기술적 비전과 학문적 방향을 제시했다는 점에서 국제 연구 커뮤니티의 높은 평가를 받았다.
C 언어는 70년대부터 산업계에서 폭넓게 사용되어 왔으나, 구조적 한계로 인해 심각한 버그와 보안 취약점을 지속적으로 유발해 왔다. 반면, 러스트는 2015년부터 개발된 안전한 프로그래밍 언어로, 운영체제 및 웹 브라우저 개발 등에 사용되며, 프로그램 실행 전에 버그를 탐지하고 방지할 수 있는 특성을 지닌다.
미국 백악관은 2024년 2월 발표한 기술 보고서에서 C 언어 사용 중단을 권고하였고, 미국 국방고등연구계획국(DARPA) 또한 C 코드를 러스트로 자동 변환하는 기술 개발 과제를 추진하며 C 언어의 보안 문제 해결에 러스트가 핵심 대안임을 명시했다.
우리 대학 류 교수 연구팀은 이러한 움직임이 본격화되기 이전부터 C 언어의 안전성 문제와 자동 변환의 중요성을 선제적으로 제기하고, 관련 핵심 기술을 지속적으로 개발해 왔다.
우리 대학 연구팀은 2023년 5월 프로그램 동기화에 필요한 뮤텍스(Mutex) 변환 기술을소프트웨어 공학 분야 최고 권위 학회인 ICSE(International Conference on Software Eng)에서 발표했으며, 2024년 6월에는 결과 전달에 사용되는 출력 파라미터(Output Parameter) 변환 기술을 프로그래밍 언어 분야 최고 학회인 PLDI(Programming Language Design and Implementation)에서, 같은 해 10월에는 다양한 데이터를 함께 저장하는 유니언(Union) 변환 기술을 소프트웨어 자동화 분야 대표 학회인 ASE(Automated Software Eng)에서 각각 발표했다.
이들 세 연구는 모두 세계 최고 수준의 국제 학술대회에서 ‘세계 최초’로 발표된 성과로, 각 기능별 자동 변환 기술을 완성도 높게 구현해 왔다.
연구팀은 2023년 이후 매년 CACM에 논문을 게재하며 세계적으로 중요하고 도전적인 문제를 꾸준히 해결해 온 글로벌 선도 연구진으로 자리매김했다.
이번 논문은 홍재민 박사(KAIST 정보전자연구소 연수연구원)가 제 1저자로 CACM(Communications of the ACM)에 10월 24일 게재되었다.
※논문제목: Automatically Translating C to Rust, DOI: https://doi.org/10.1145/3737696
홍재민 박사는 “우리가 개발한 변환 기술은 프로그래밍 언어 이론에 기반한 원천 기술로, 변환의 ‘정확성’을 논증할 수 있는 것이 큰 강점”이라며, “대부분의 연구가 대규모 언어모델(LLM)에 의존하는 반면, 우리 기술은 변환의 올바름을 수학적으로 보장할 수 있다”고 밝혔다.
홍 박사는 2026년 3월부터 UNIST 컴퓨터공학과 조교수로 부임할 예정이다.
또한 류 교수 연구팀은 소프트웨어 공학 최고 권위 학회 ASE 2025에 C→러스트 변환 기술을 포함한 4편의 논문이 채택되어 발표를 앞두고 있다.
이들 논문은 자동 변환 기술뿐 아니라 ▲양자컴퓨터 프로그램이 제대로 작동하는지 검증하는 기술, ▲웹어셈블리 프로그램(웹에서 빠르고 효율적으로 프로그램 실행하기 위한 기술)의 정확성을 자동으로 검사하고 테스트를 만들어주는 ‘웨스트(WEST)’ 기술, ▲복잡한 웹어셈블리 코드를 자동으로 단순화해 오류를 빠르게 찾아내는 기술 등 첨단 소프트웨어 공학 분야 전반에서 세계적으로 높은 평가를 받고 있다. 이 가운데 웨스트(WEST) 논문은 우수논문상(Distinguished Paper Award)을 받았다.
이번 연구는 한국연구재단 선도연구센터·중견연구자지원사업, 정보통신기획평가원(IITP), 삼성전자의 지원으로 수행되었다.
‘2025 AI 챔피언’등극.. AI가 이제 택시도 스스로 부른다
이제는 단순히 대화만 하는 음성비서를 넘어, AI가 직접 화면을 보고 판단해 택시를 호출하고 SRT 티켓을 예매하는 시대가 열렸다.
우리 대학은 전산학부 신인식 교수(㈜플루이즈 대표)가 이끄는 AutoPhone 팀(플루이즈·KAIST·고려대·성균관대)이 과학기술정보통신부가 주최한 ‘2025 인공지능 챔피언(AI Champion) 경진대회’에서 초대 AI 챔피언(1위)에 선정됐다고 6일 밝혔다.
이번 대회는 AI 기술의 혁신성, 사회적 파급력, 사업화 가능성을 종합 평가하는 국내 최대 규모의 AI 기술 경진대회로, 전국 630개 팀이 참가한 가운데 AutoPhone 팀이 최고 영예를 차지하며 연구개발비 30억 원을 지원받는다.
AutoPhone 팀이 개발한 ‘FluidGPT’는 사용자의 음성 명령을 이해해 스마트폰이 스스로 앱을 실행하고 클릭·입력·결제까지 완료하는 완전 자율형 AI 에이전트 기술이다.
예를 들어, 사용자가 “서울역에서 부산 가는 SRT 예매해줘” 또는 “택시 불러줘”라고 말하면, FluidGPT는 실제 앱을 열고 필요한 단계를 순차적으로 수행해 결과를 완성한다.
이 기술의 핵심은 ‘비침습형(API-Free)’ 구조다. 기존에는 택시 앱(API) 을 이용해 직접 호출 기능을 실행해서 앱 내부 시스템에 연결(API 통신) 해야 했다. 반면 이 기술은 기존 앱의 코드를 수정하거나 앱(API)을 연동하지 않고, AI가 화면(UI)을 직접 인식하고 조작함으로써 사람처럼 스마트폰을 다룰 수 있는 능력을 갖췄다.
이로써 FluidGPT는 “사람처럼 보고, 판단하고, 손을 대신 움직이는 AI”라는 새로운 패러다임을 제시하며, ‘AI폰 시대’를 여는 핵심 기술로 평가받고 있다.
FluidGPT는 기존의 단순 음성비서를 넘어, AI가 직접 화면을 보고 판단하여 행동하는 ‘Agentic AI’(행동형 인공지능) 개념을 구현했다. AI가 앱 버튼을 클릭하고 입력 필드를 채우며 데이터를 참조해 사용자의 목적을 스스로 달성하는 완전 행동형 시스템으로, 스마트폰 사용 방식의 혁신을 예고하고 있다.
전산학부 신인식 교수는 “AI가 이제 대화에서 행동으로 진화하고 있다. FluidGPT는 사용자의 말을 이해하고 실제 앱을 스스로 실행하는 기술로, ‘AI폰 시대’의 출발점이 될 것이다. AutoPhone 팀은 세계적 수준의 연구 역량을 갖추고 있으며, 앞으로 모두가 쉽게 사용할 수 있는 AI 서비스 확산에 기여하겠다”고 소감을 밝혔다.
이광형 KAIST 총장은 “이번 성과는 KAIST의 AI 융합 비전을 보여주는 대표적인 사례”라며 “AI 기술이 국민 생활 속으로 들어와 새로운 혁신의 변화를 이끌고 있다”고 말했다.
이어 “KAIST는 앞으로도 AI와 반도체 등 미래 핵심기술 연구를 선도해 국가 경쟁력에 힘을 보태겠다”고 덧붙였다.
휴대폰 사진 단 몇 장으로 구현한 생생한 3D 가상 환경 속으로
기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다.
기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한계가 있었다. 이러한 제약 때문에 실제 환경에서의 적용이 어렵고, 대중적 활용에도 제동이 걸려왔다.
연구팀은 이러한 문제를 해결하기 위해, 단 2~3장의 일반 사진만으로도 3차원 장면과 카메라의 방향을 동시에 추정해 정확한 3D 모델을 구축하는 기술을 개발했다. 별도의 추가 학습이나 정밀한 보정 과정 없이도 실제 환경에서 신속하고 정밀한 복원이 가능해 효율성과 범용성이 매우 높은 기술로 평가받고 있다.
핵심 기술인 SHARE는 영상 속에서 사물의 형태(Shape)와 카메라의 시선 방향(Ray)을 동시에 추정하는 새로운 방식을 도입했다.
기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면, SHARE는 영상 자체에서 공간 정보를 스스로 찾아내어 카메라와 구조를 추론한다. 이를 통해 서로 다른 위치에서 촬영된 다중 영상을 하나의 공통된 공간으로 정렬하고, 형상 왜곡 없이 안정적인 3D 복원을 실현했다.
윤성의 교수는 “SHARE 기술은 3D 복원의 진입 장벽을 획기적으로 낮춘 기술로, 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 밝혔다.
이번 연구는 나영주 박사과정, 김태연 석사과정 학생이 공동 제1저자로 참여했으며, 연구 결과는 국제 이미지 처리 학회(IEEE International Conference on Image Processing, ICIP 2025)에서 9월 17일 발표되어 ‘최고 학생논문상(Best Student Paper Award)’을 수상했다.
이 상은 올해 채택된 643편의 논문 중 단 한 편에게만 수여되는 영예(수상률 0.16%)로, KAIST 연구진의 우수한 연구역량을 다시 한 번 입증했다.
*논문명 : Pose-free 3D Gaussian Splatting via Shape-Ray Estimation, DOI https://arxiv.org/abs/2505.22978
*수상정보: https://www.linkedin.com/posts/ieeeicip_congratulations-to-the-icip-2025-best-activity-7374146976449335297-6hXz
이번 성과는 과학기술정보통신부 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 과제지원으로 수행되었다.