‘알파폴드 한계’ 넘었다…약물 작동까지 예측한다
우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다.
우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다.
GPCR(G-Protein Coupled Receptor)은 세포 표면에 있는‘신호 수신기’역할을 한다. 호르몬이나 신경전달물질, 약물이 세포 밖에서 신호를 보내면 이를 받아 세포 안으로 전달하는 문(게이트) 역할을 한다. 인체에는 약 800여 종의 GPCR이 존재하며, 현재 시판 약물의 약 30~40%가 이를 표적으로 한다. 심장 박동, 혈압 조절, 통증 감지, 면역 반응, 감정 조절 등 다양한 생리 기능에 관여하는 핵심 단백질이다.
하지만 약물이 GPCR에 결합했다고 해서 항상 원하는 기능이 작동하는 것은 아니다. 결합 이후 단백질 내부에서 일어나는 구조 변화와 신호 전달 과정이 실제 작용 여부를 결정한다. 이를 ‘알로스테릭 신호 전파’라고 한다.
연구팀은 약물 작용 과정을 ① 약물-표적 결합 단계 ② 단백질 내부 신호 전파 단계로 나누어 AI가 단계적으로 학습하도록 설계했다. 단백질의 3차원 구조를 원자 수준 그래프로 표현하고, 중요한 신호 전파 경로를 학습할 수 있도록‘어텐션 메커니즘’을 적용했다. 이를 통해 AI가 약물 결합 신호와 함께 단백질 내부 신호 전파 경로를 파악하여 단백질의 활성을 예측하도록 했다.
그 결과, 기존 모델이 어려워했던 복잡한 구조의 단백질에서도 약물 활성 예측 성능을 크게 향상시켰다. 이번 모델은 단순히 ‘활성’ 또는 ‘비활성’결과만 제시하지 않는다. 예측의 근거가 되는 단백질 내부 핵심 신호 경로를 제시해, 이른바 ‘블랙박스 AI’의 한계를 극복했다.
이는 연구자가 결과를 해석하고 검증할 수 있게 해 신약 개발의 신뢰성과 효율성을 동시에 높일 수 있는 중요한 진전이다. 앞으로 GPCR을 표적으로 하는 다양한 질병에서, 약물의 결합 여부뿐 아니라 실제 활성 여부까지 예측하는 정밀 신약 개발 AI 플랫폼으로 활용될 전망이다.
이관수 교수는 “알로스테릭 구조 변화는 약물이 단백질의 한 부분에 결합했을 때 그 영향이 내부로 전달돼 다른 부위의 기능까지 바뀌는 현상”이라며 “이 작동 원리를 딥러닝에 반영한 것이 이번 연구의 핵심”이라고 밝혔다. 이어 “앞으로 다양한 단백질로 확장하고, 세포와 인체 반응까지 예측하는 기술로 발전시키겠다”고 말했다.
손효진 박사과정생이 제1 저자로 참여한 이번 논문은 생물정보학 분야 최고 권위의 국제 학술지인 `브리핑스 인 바이오인포매틱스(Briefings in Bioinformatics, JCR 상위 2.2%)'에 1월 15일자 게재됐다.
※ 논문명 : GPCRact: a hierarchical framework for predicting ligand-induced GPCR activity via allosteric communication modeling, DOI: https://doi.org/10.1093/bib/bbaf719
※ 저자 정보 : 손효진 (KAIST, 제1 저자), 이관수 (KAIST, 교신저자)
이 연구는 개인기초연구(과학기술정보통신부, 한국연구재단, RS-2025-24533057)의 지원으로 수행됐다.
기계공학과 윤국진 교수 연구팀, 세계 최고 권위 ‘CVPR 2026’ 논문 10편 채택,글로벌 AI 연구 선도
우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다.
CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다.
윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인지 기술, 그리고 AI 효율화 및 적응 기술 등 컴퓨터 비전 분야의 최첨단 주제들을 다루고 있다.
연구팀은 이미 지난해 ICCV 2025에서도 주저자/교신저자로 12편의 논문을 발표하여 독보적인 연구 역량을 인정받은 바 있다. 이번 CVPR 2026의 성과는 연구팀이 글로벌 컴퓨터 비전 연구를 선도하는 핵심 거점임을 다시 한번 확고히 하는 계기가 되었다. 연구팀은 앞으로도 기존 기술의 한계를 뛰어넘는 도전적인 연구를 통해 미래 AI 기술 발전에 기여할 계획이다.
한편, 이번 CVPR 2026은 오는 6월 3일부터 7일까지 미국 콜로라도주 덴버에서 개최될 예정이다.
전 세계 슬럼가 찾아내는 AI 개발..AAAI 2026 최우수논문상
“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들”
한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다.
우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다.
이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 693편 중 단 2편만이 선정된 최고 영예로, 한국 연구팀의 혁신적인 AI 기술력이 단순한 기술 진보를 넘어 실질적인 사회적 가치 창출 측면에서도 세계 최정상 수준임을 확인시켜 준 쾌거다.
그동안 위성사진을 활용한 슬럼 탐지 연구는 있었지만, 도시마다 건물 형태와 밀집도가 크게 달라 새로운 지역에서는 정확도가 급격히 떨어지는 한계가 있었다. 특히 많은 개발도상국에서는 슬럼 위치를 일일이 표시한 데이터가 부족해 AI 학습 자체가 어려웠다.
연구팀은 이를 해결하기 위해 여러 개의 AI 모델이 서로 다른 지역 특성을 학습하고, 새로운 도시가 입력되면 가장 적합한 모델을 자동으로 선택하는 ‘전문가 혼합(Mixture-of-Experts, MoE)’ 구조를 도입했다.
이번 연구의 핵심은 ‘테스트 시점 적응(Test-Time Adaptation, TTA)’ 기술이다. 새로운 도시에서 슬럼 위치를 사람이 미리 표시하지 않아도, AI가 여러 모델의 예측 결과를 비교·검증해 공통적으로 일치하는 영역만을 신뢰함으로써 스스로 오류를 줄인다. 이를 통해 데이터가 부족한 지역에서도 안정적인 성능을 확보했다.
연구팀은 해당 기술을 아프리카 캄팔라(Kampala), 마푸토(Maputo) 등 주요 도시에 적용한 결과, 기존 최신 기술보다 더욱 정교하게 슬럼 지역을 구분하는 성과를 확인했다.
이 기술은 △ 개발도상국 도시 인프라 확충 계획 수립 △ 재난·감염병 취약지역 사전 파악 △ 주거환경 개선 사업 대상 선정 △ UN 지속가능발전목표(SDGs) 이행 점검 등 다양한 정책 분야에서 활용될 수 있을 것으로 기대된다.
차미영 교수는 “AI가 단순 분석 도구를 넘어, 데이터가 부족한 지역에서도 실질적인 사회 문제 해결에 기여할 수 있음을 보여준 연구”라고 말했다. 김지희 교수는 “막대한 비용이 드는 현장조사를 보완해, 한정된 자원을 가장 필요한 지역에 효과적으로 배분하는 데 도움이 될 것”이라고 밝혔다.
이번 연구에는 KAIST 전산학부 이수민, 박성원 석박사연구원이 공동 제1저자로 참여했으며, 연구 결과는 1월 25일 싱가포르에서 열린 AAAI 2026에서 발표됐다.
※ 논문명: Generalizable Slum Detection from Satellite Imagery with Mixture-of-Experts, 논문링크 : https://aaai.org/about-aaai/aaai-awards/aaai-conference-paper-awards-and-recognition/
또한, 한국연구재단의 중견연구자지원사업 및 데이터사이언스 융합인재양성사업의 지원을 받아 수행되었다.
다크나잇 속 조커가 ‘내가 되는’ 기술 개발
만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다.
으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다.
최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다. 또한 이미 촬영된 일반 영상(제3자 시점, Exocentric video)을 1인칭 시점으로 자연스럽게 변환하는 데에도 기술적 제약이 존재했다.
이번 기술은 단순히 화면을 회전시키는 수준을 넘어, 인물의 위치와 자세, 주변 공간의 3차원(3D) 구조를 종합적으로 이해한 뒤 이를 기반으로 1인칭 시점 영상을 재구성한다는 점이 특징이다.
기존 기술은 정지 이미지만 변환하거나 4대 이상의 카메라 영상이 필요한 경우가 많았다. 또한 빛의 방향이나 움직임이 복잡한 동영상에서는 화면이 어색해지는 문제가 있었다.
반면 EgoX는 단 하나의 3인칭 시점 영상만으로도 고품질의 1인칭 영상을 생성할 수 있다. 연구팀은 특히 인물의 머리 움직임과 실제 시야 사이의 상관관계를 정밀하게 모델링함으로써, 고개를 돌릴 때 시야가 자연스럽게 전환되는 모습까지 사실적으로 구현하는 데 성공했다.
이 기술은 특정 환경에 국한되지 않고 요리, 운동, 작업 등 다양한 일상 상황에서도 안정적인 성능을 보였다. 이를 통해 별도의 웨어러블 장치를 착용하지 않고도 기존에 축적된 영상으로부터 고품질의 1인칭 시점 데이터를 확보할 수 있는 새로운 가능성을 열었다는 평가를 받고 있다.
EgoX는 향후 다양한 산업 분야에 상당한 파급력을 미칠 것으로 기대된다. AR·VR 및 메타버스 분야에서는 일반 영상을 사용자가 직접 체험하는 듯한 몰입형 콘텐츠로 전환해 사용자 경험을 극대화할 수 있다.
또한 로봇이 사람의 행동을 보고 학습하는 모방 학습(Imitation Learning)의 핵심 데이터로 활용될 수 있어 로봇과 AI 학습 분야에도 기여할 것으로 전망된다. 스포츠 중계나 브이로그를 선수나 주인공의 시점으로 전환하는 등 새로운 형태의 영상 서비스도 가능해질 것으로 기대된다.
주재걸 석좌교수는 “이번 연구는 단순한 영상 변환 기술을 넘어, 인공지능이 사람의 ‘시야’와 ‘공간 이해’를 학습해 재구성했다는 점에서 의미가 크다”며 “앞으로는 기존에 촬영된 영상만으로도 누구나 몰입형 콘텐츠를 제작하고 경험할 수 있는 환경이 열릴 것으로 기대한다”고 말했다. 이어 “KAIST는 생성형 AI 기반 비디오 기술 분야에서 세계적 경쟁력을 확보해 나갈 것”이라고 덧붙였다.
이번 연구는 강태웅, 김기남 KAIST 박사과정, 김도현 서울대 학부연구생이 제 1저자로 참여했으며, 논문은 2025년 12월 9일 arXiv에 선공개되어 미국 NVIDIA 및 Meta 등의 빅테크들을 비롯한 AI 산업 및 학계의 큰 주목을 받았으며, 2026년 6월 3일 미국 콜로라도에서 열리는 국제 학술대회인 The IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)에 공식 발표될 예정이다.
※ 논문명: EgoX: Egocentric Video Generation from a Single Exocentric Video, 논문링크: https://keh0t0.github.io/EgoX/
※ 저자: 강태웅(제1저자, KAIST), 김기남(제1저자, KAIST), 김도현 (제1저자, 서울대학교), 박민호 (공동저자, KAIST), 형준하 (공동저자, KAIST), 주재걸(교신저자, KAIST)
한편, 이번 연구는 과학기술정보통신부 재원으로 한국연구재단의 지원을 받은 개인기초연구사업 ‘생성형 인공지능 기술을 통한 사용자 중심 콘텐츠 생성 및 편집 기술 연구’ 과제와, 슈퍼컴퓨터 5호기 초고성능컴퓨팅 기반 R&D 혁신 지원 사업 ‘디퓨전 모델 기반 비디오 촬영 시점 변환 연구’ 과제의 지원을 받아 수행됐다.
KAIST-카카오뱅크, '설명 가능한 AI' 속도 11배 높였다. "금융 AI 신뢰도↑"
우리 대학 김재철AI대학원 최재식 교수 연구팀이 ㈜카카오뱅크(대표 윤호영)와 공동으로 인공지능(AI) 모델의 판단 근거를 실시간으로 설명할 수 있는 가속화 설명 기술을 개발했다고 밝혔다.
이번 연구 성과는 AI 모델의 예측 결과에 대한 기존 설명 알고리즘 대비 평균 8.5배, 최대 11배 이상 빠른 처리 속도를 달성해, 금융 서비스 등 실시간 의사결정이 필요한 분야에서 설명가능 인공지능(Explainable Artificial Intelligence, 이하 XAI) 기술의 실용화 가능성을 크게 높였다.
금융 분야에서는 AI 시스템이 내린 결정에 대한 명확한 설명이 필수적이다. 특히 대출 심사나 이상거래 탐지와 같이 고객의 권익과 직결된 서비스에서는 AI 모델의 판단 근거를 투명하게 제시해야 하는 규제 요구가 점차 강화되고 있다. 하지만 기존의 설명가능 인공지능(XAI) 기술은 정확한 설명을 생성하기 위해 수백에서 수천 개의 기준점(Baseline)을 반복 계산해야 하므로 막대한 연산 비용이 발생했다. 이는 실시간 서비스 환경에서 설명가능 인공지능 (XAI) 기술의 적용을 제약하는 주요 요인이었다.
최재식 교수 연구팀은 이러한 문제를 해결하기 위해 'ABSQR(Amortized Baseline Selection via Rank-Revealing QR)'이라는 설명 알고리즘 가속화 프레임워크를 개발했다. ABSQR은 AI 모델 설명 과정에서 생성되는 가치 함수 행렬(value function matrix)이 저차원 구조를 가진다는 점에 착안해, 수백 개의 기준점 중에서 핵심적인 소수만을 선별하는 방식을 도입했다. 기준점 개수에 비례하던 연산량을 선별된 중요 기준점 개수에만 비례하도록 획기적으로 줄여, 설명 정확도는 유지하면서도 계산 효율성을 극대화했다.
구체적으로 ABSQR은 두 단계로 작동한다. 첫 번째 단계에서는 특이값 분해(SVD)와 랭크 판별형 QR 분해(Rank-Revealing QR decomposition) 기법을 활용해 중요한 기준점들을 체계적으로 선별한다. 이는 기존의 무작위 샘플링 방식과 달 정보력 복원 유지를 목적으로 한 결정론적 선택 방법으로, 설명의 정확도를 보장하면서도 계산량을 획기적으로 줄일 수 있다. 두 번째 단계에서는 사전에 계산해둔 기준점의 가중치들을 클러스터 기반 검색을 통해 재사용하는 가속화 추론(amortized inference) 메커니즘을 도입해, 실시간 서비스 환경에서 모델 평가를 반복하지 않고도 모델의 예측 결과에 대한 설명을 제공할 수 있게 했다.
연구팀은 다양한 실제 데이터셋을 대상으로 한 실험을 통해 ABSQR의 우수성을 검증했다. 금융, 마케팅, 인구통계 등 5개 분야의 표준 데이터셋에 대한 테스트 결과, ABSQR은 모든 기준점을 사용하는 기존 설명 알고리즘 대비 평균 8.5배 빠른 처리 속도를 달성했으며, 최대 11배 이상의 속도 향상을 기록했다. 또한, 속도 향상에 따른 설명 정확도 저하를 최소화하여 기준 알고리즘 대비 최대 93.5%의 설명 정확도를 유지했다. 이는 실무 환경에서 요구되는 설명 품질을 충분히 만족하는 수준이다.
카카오뱅크 관계자는 "앞으로도 끊임없는 연구개발을 통해 금융 서비스의 신뢰도와 편의성을 높이고, 고객이 체감할 수 있는 혁신적인 금융 기술을 선보이겠다"고 밝혔다.
공동 제1 저자인 KAIST 이찬우, 박영진 연구원은 "금융 분야에서 실시간 적용을 위해 가장 중요한 과제인 가속화 문제를 해결한 방법론으로, 사용자에게 학습 모델에 대한 의사결정 원인을 실시간으로 제공할 수 있음을 입증했다"라고 연구의 의의를 설명했다. 이어 "이번 연구는 설명 알고리즘에서 불필요한 연산과 중요한 기준점 선택이 무엇인지에 대한 새로운 통찰을 제공하며, 설명 기술의 효율성 향상에 실질적으로 기여할 것"이라고 덧붙였다.
KAIST 김재철AI대학원 이찬우, 박영진 박사 과정 연구원과 카카오뱅크 금융기술연구소 이현근, 유예은 연구원이 공동 제1 저자로 참여한 이번 연구는 정보 및 지식 관리 분야의 세계 최고 권위 학술대회인 'CIKM 2025(ACM International Conference on Information and Knowledge Management)'에서 11월 12일에 발표되었다.
※ 논문명: Amortized Baseline Selection via Rank-Revealing QR for Efficient Model Explanation
※ 저자 정보:
- 공동 제1저자: 이찬우(KAIST 김재철AI대학원), 박영진(KAIST 김재철AI대학원), 이현근(카카오뱅크), 유예은(카카오뱅크)
- 공저자: 한대희(카카오뱅크), 최준호(KAIST 김재철AI대학원), 김건형(KAIST 김재철AI대학원)
- 교신저자: 김나리(KAIST 김재철AI대학원), 최재식(KAIST 김재철AI대학원)
※ DOI: https://doi.org/10.1145/3746252.3761036
한편, 이번 연구성과는 카카오뱅크의 산학 연구과제 ‘금융분야 설명가능 인공지능 알고리즘 고도화 연구’와 과기정통부·정보통신기획평가원(IITP)의 지원 과제 ‘플러그앤플레이 방식으로 설명가능성을 제공하는 인공지능 기술 개발 및 인공지능 시스템에 대한 설명 제공 검증'를 통해 수행됐다.
인간 중심 AI 국제 워크숍 주최, 글로벌 AI 윤리논의 이끈다.
우리 대학은 11월 14일, 컴퓨터 과학 분야 세계적 권위의 학술대회인 ‘정보 및 지식관리 학회(The 34th International Conference on Information and Knowledge Management, CIKM 2025)’에서‘인간 중심 AI: 설명가능성과 신뢰성에서 실행 가능한 윤리까지(Human-Centric AI: From Explainability and Trustworthiness to Actionable Ethics)’를 주제로 국제 워크숍(워크샵 조직위원장: KAIST 김재철AI대학원 최재식 교수)을 개최할 예정이다.
이번 행사는 KAIST 김재철AI대학원이 주도하고 서울대, 서강대, 성균관대, 한국전자통신연구원(ETRI), 독일 TU Berlin 등 국내외 유수 기관이 공동으로 참여하는 자리다.
AI 기술의 잠재적 위험을 줄이고 책임 있는 활용을 위한 ‘인간 중심 AI’의 구체적 방향을 논의하기 위해 마련됐다. 워크숍에서는 AI의 설명가능성, 신뢰성, 윤리적 실행을 중심 주제로, AI 시스템이 투명하고 공정하며 인간의 가치에 부합하도록 운영되기 위한 기술적·정책적 방안이 심도 있게 다뤄진다.
이번 워크숍의 조직위원회는 KAIST 김재철AI대학원 최재식 교수와 전기및전자공학부 유창동 교수를 비롯해 서울대 한보형 교수, 서강대 구명완 교수, 성균관대 우사이먼성일 교수, ETRI 배경만 박사, 그리고 설명가능 인공지능(XAI) 분야 세계적 석학인 Wojciech Samek 교수(TU Berlin/Fraunhofer HHI)로 구성됐다.
행사는 세 개의 기조 강연(Keynote)과 구두 발표, 포스터 세션으로 구성된다. 기조연설에는 홍콩중문대학 어윈 킹(Irwin King) 교수가 ‘연합학습과 그 너머’를 주제로, KAIST 유창동 교수가 ‘대규모 비전-언어 모델의 공정한 정렬’를 주제로, 독일 프라운호퍼(Fraunhofer) HHI 연구소의 막시밀리안 드레이어(Maximilian Dreyer) 연구원이 ‘엔지니어처럼 AI를 검증하기: 설명에서 검증으로, 시맨틱렌즈와 함께’를 주제로 발표해 AI 신뢰성과 윤리 구현을 위한 최신 연구 동향을 공유한다.
우리 대학은 이번 행사를 통해 국내 AI 연구가 기술적 성과를 넘어 국제 윤리 논의의 중심으로 도약하고 있음을 보여줬다. 또한, 학계와 산업계의 전문가들이 한자리에 모여 신뢰할 수 있는 AI 구축을 위한 실천적 로드맵과 가이드라인을 논의하는 계기가 될 것으로 기대된다.
워크숍 조직위원장인 최재식 교수(KAIST 김재철AI대학원)은 “이번 워크숍은 인간 중심 AI의 핵심 주제인 설명가능성, 공정성, 프라이버시를 아우르는 글로벌 논의의 장이 될 것”이라며, “KAIST가 선도하는 인공지능 신뢰 연구가 국제 협력과 함께 윤리적 기술 발전의 방향을 제시할 것”이라고 말했다.
워크숍 참가를 희망하는 경우 CIKM 2025 학회 등록이 별도로 필요하며, 사전 등록은 https://bit.ly/hcai2025-reg 에서 가능하며 현장 등록도 가능하다.
한편, 이번 행사는 과학기술정보통신부 재원으로 정보통신기획평가원(IITP)이 지원하는‘인공지능 신뢰확보 분야 과제협의체’의 일환으로 추진되었으며, 국내외 연구자 간 학술 교류와 연구 성과 확산을 목표로 하고 있다. (참여과제 KAIST(RS-2022-II220984, RS-2022-II220184), 서울대(RS-2022-II220959), 서강대(RS-2022-II220621), ETRI(RS-2022-II220369), 성균관대(RS-2022-II220688)
‘2025 AI 챔피언’등극.. AI가 이제 택시도 스스로 부른다
이제는 단순히 대화만 하는 음성비서를 넘어, AI가 직접 화면을 보고 판단해 택시를 호출하고 SRT 티켓을 예매하는 시대가 열렸다.
우리 대학은 전산학부 신인식 교수(㈜플루이즈 대표)가 이끄는 AutoPhone 팀(플루이즈·KAIST·고려대·성균관대)이 과학기술정보통신부가 주최한 ‘2025 인공지능 챔피언(AI Champion) 경진대회’에서 초대 AI 챔피언(1위)에 선정됐다고 6일 밝혔다.
이번 대회는 AI 기술의 혁신성, 사회적 파급력, 사업화 가능성을 종합 평가하는 국내 최대 규모의 AI 기술 경진대회로, 전국 630개 팀이 참가한 가운데 AutoPhone 팀이 최고 영예를 차지하며 연구개발비 30억 원을 지원받는다.
AutoPhone 팀이 개발한 ‘FluidGPT’는 사용자의 음성 명령을 이해해 스마트폰이 스스로 앱을 실행하고 클릭·입력·결제까지 완료하는 완전 자율형 AI 에이전트 기술이다.
예를 들어, 사용자가 “서울역에서 부산 가는 SRT 예매해줘” 또는 “택시 불러줘”라고 말하면, FluidGPT는 실제 앱을 열고 필요한 단계를 순차적으로 수행해 결과를 완성한다.
이 기술의 핵심은 ‘비침습형(API-Free)’ 구조다. 기존에는 택시 앱(API) 을 이용해 직접 호출 기능을 실행해서 앱 내부 시스템에 연결(API 통신) 해야 했다. 반면 이 기술은 기존 앱의 코드를 수정하거나 앱(API)을 연동하지 않고, AI가 화면(UI)을 직접 인식하고 조작함으로써 사람처럼 스마트폰을 다룰 수 있는 능력을 갖췄다.
이로써 FluidGPT는 “사람처럼 보고, 판단하고, 손을 대신 움직이는 AI”라는 새로운 패러다임을 제시하며, ‘AI폰 시대’를 여는 핵심 기술로 평가받고 있다.
FluidGPT는 기존의 단순 음성비서를 넘어, AI가 직접 화면을 보고 판단하여 행동하는 ‘Agentic AI’(행동형 인공지능) 개념을 구현했다. AI가 앱 버튼을 클릭하고 입력 필드를 채우며 데이터를 참조해 사용자의 목적을 스스로 달성하는 완전 행동형 시스템으로, 스마트폰 사용 방식의 혁신을 예고하고 있다.
전산학부 신인식 교수는 “AI가 이제 대화에서 행동으로 진화하고 있다. FluidGPT는 사용자의 말을 이해하고 실제 앱을 스스로 실행하는 기술로, ‘AI폰 시대’의 출발점이 될 것이다. AutoPhone 팀은 세계적 수준의 연구 역량을 갖추고 있으며, 앞으로 모두가 쉽게 사용할 수 있는 AI 서비스 확산에 기여하겠다”고 소감을 밝혔다.
이광형 KAIST 총장은 “이번 성과는 KAIST의 AI 융합 비전을 보여주는 대표적인 사례”라며 “AI 기술이 국민 생활 속으로 들어와 새로운 혁신의 변화를 이끌고 있다”고 말했다.
이어 “KAIST는 앞으로도 AI와 반도체 등 미래 핵심기술 연구를 선도해 국가 경쟁력에 힘을 보태겠다”고 덧붙였다.
IEEE 회장 크레이머 교수, 전기및전자공학부서 인공지능 특별 강연 개최
세계 최대 전기·전자 기술 학회인 IEEE(Institute of Electrical and Electronics Engineers)의 캐슬린 크레이머(Kathleen A. Kramer) 회장이 30일 우리 대학을 방문해 ‘인공지능의 미래를 함께 그리다’라는 주제로 특별 강연을 진행했다.
전기및전자공학부(학부장 유승협)의 초청으로 콜로퀴엄 연단에 선 크레이머 회장은 IEEE의 핵심 비전인 ‘인류를 위한 기술 발전(Advancing Technology for Humanity)’을 바탕으로 “인공지능(AI)은 더 이상 먼 미래의 개념이 아니라, 혁신의 중심에서 인류의 삶을 변화시키는 기술이 되었다”라고 강조했다.
이어 “기술은 인간의 가치를 중심으로 발전해야 하며, 윤리와 포용성을 기반으로 한 인공지능이 진정한 혁신을 이끌 수 있다”라고 덧붙이며, 인공지능의 발전 방향과 기술의 사회적 책임에 대한 통찰을 공유했다.
유승협 전기및전자공학부장은 “크레이머 회장의 이번 방문은 우리 학부가 보유한 인공지능, 반도체, 신호처리, 로보틱스 등 첨단 분야의 역량을 국제 학계에 더욱 널리 알리는 것은 물론 다방면으로 협력을 강화하는 교두보가 될 것이라 기대한다”라고 전했다.
한편, 크레이머 회장은 강연에 앞서 이상엽 KAIST 연구부총장을 예방하고, 지속 가능한 기술을 발전시키고 윤리적·포용적인 연구 생태계 구축해 인류의 더 나은 삶에 기여하고자 하는 양 기관의 협력의 의지를 다시 한번 확인했다.
AI로 기후리스크에 강한 도시 상권 찾아낸다
우리 대학은 도시인공지능연구소(소장 건설및 환경공학과 윤윤진 지정석좌교수)가 미국 MIT 센서블 시티 랩(Senseable City Lab, 소장 Carlo Ratti 교수)과 함께 ‘도시와 인공지능(Urban AI)’분야의 공동연구를 진행하고, 그 성과를 서울 코엑스에서 열린 9월 말 ‘스마트라이프위크 2025(Smart Life Week 2025)’ 전시를 통해 공개했다고 10월 29일 밝혔다.
KAIST와 MIT는 도시의 주요 문제를 인공지능으로 해석하는‘Urban AI 공동연구 프로그램’을 추진해 왔으며, 이번 전시에서는 ▲도시 기후 변화 ▲녹지 환경 ▲데이터 포용성 등 세 가지 주제를 중심으로 연구 성과를 시민이 직접 체험할 수 있는 형태로 선보였다.
양 기관은 이번 협력을 통해 AI 기술이 도시의 문제를 계산하는 도구를 넘어, 사회적 이해와 공감을 이끄는 새로운 지능으로 확장될 수 있음을 보여주며 ▲도시의 열과 매출 ▲치유하는 자연, 서울 ▲데이터 소니피케이션 등 세 가지 프로젝트를 진행했다.
첫 번째 프로젝트인 ‘도시의 열과 매출’은 기후 변화가 도시 상권과 소상공인 생태계에 미치는 영향을 인공지능으로 분석한 연구다. 서울시 426개 행정동별 96개 업종에 대한 매출과 날씨 등 3억 개 이상의 데이터를 학습한 인공지능 모델을 통해, 기온과 습도 등의 기후 요인이 업종별 매출에 미치는 영향을 정량화했다.
그 결과는 각 지역·업종별로 기후 변화에 얼마나 잘 적응하고 회복할 수 있는지를 점수화한 ‘도시의 회복력(Urban Heat Resilience)’지표 40,896개로 시각화되어 어느 지역이 기온 리스크에 강한 상권인지 등 지역별 상권의 회복력 수준을 한눈에 파악할 수 있도록 구성되었다.
연구에 따르면 편의점 업종의 경우, 총 426개 행정동 중 64.7%는 기후 변화에 비교적 안정적인 ‘기후 중립 지역’이며 나머지 35.3%는 기후 변화에 영향을 크게 받는 ‘기후 민감 지역’에 속하는 것으로 분석되었다. 이는 편의점 업종의 영업 환경은 지역별로 기후 영향 편차가 존재하며, 도시 회복력 관점에서 향후 입지 전략 수립 시 참고할 수 있는 데이터로 활용 가능하다.
관람객은 실제 서울 지도를 기반으로 지역과 업종을 선택해, AI가 미래 기온 상승 시나리오에 따른 매출 변화를 실시간으로 예측하는 시스템을 체험할 수 있었다.
해당 예측 모델은 KAIST가 자체 개발한 기술로, 향후 보스턴·런던 등 세계 주요 도시와의 협력 확장도 추진될 예정이다. 이 연구는 향후 소상공인의 개업 전략 수립과 도시 기후 리스크 대응 정책 수립에 새로운 방향을 제시할 것으로 기대된다.
두 번째 프로젝트 ‘치유하는 자연, 서울’은 MIT의 글로벌 프로젝트 ‘Feeling Nature’의 서울 확장판으로, 스트리트뷰·지도·위성 이미지 등 도시 환경 데이터와 시민 설문 데이터를 결합해 AI가 ‘서울 시민이 실제로 느끼는 녹지의 심리적 경험(psychological green)’을 추정하도록 학습시켰다.
이를 통해 단순히 나무나 공원의 면적을 계산하는 수준을 넘어, 시민이 느끼는 정서적 회복력(emotional resilience)과 웰빙(well-being)을 반영한 새로운 도시 설계 방향을 제시했다. 해당 연구는 향후 서울시 녹지 정책 및 지역 맞춤형 도시 디자인에 활용될 과학적 근거를 제공할 것으로 기대된다.
마지막 프로젝트인 ‘데이터 소니피케이션’은 3억 건이 넘는 데이터를 음악처럼 해석해 들을 수 있게 만든 세계 최초의 인공지능 기술이다. AI는 온도·습도·매출 등 데이터를 활용해 기온이 오르면 음이 높아지고, 매출이 줄면 소리가 낮아지는 식으로 정보를 소리로 표현한다. 이를 통해 시각 대신 청각으로 도시 데이터를 ‘듣는’ 새로운 감각적 경험을 제공한다.
이 기술은 시각장애인이나 어린이 등 시각 정보 접근이 어려운 사람도 데이터를 직관적으로 이해할 수 있도록 돕는 포용적 AI 기술로, ‘모두를 위한 인공지능(Barrier-Free AI)’의 대표 사례다.
이번 연구를 후원한 서울AI재단 김만기 이사장은 “KAIST와 MIT 등 세계적 연구기관과의 협업을 통해 도시 환경과 시민 삶을 인공지능으로 분석한 뜻깊은 성과를 거뒀다”며 “이번 연구가 시민의 관점에서 도시 변화를 이해하고 이를 정책과 생활로 연결하는 기반을 마련했다”고 말했다.
윤윤진 소장은 “이번 전시는 인공지능이 도시를 계산하는 기술을 넘어, 사람과 도시를 이해하고 공감하는 지능으로 발전할 수 있음을 보여줬다”며 “시민이 함께 데이터를 만들고 경험하며, 세계 여러 도시와 협력해 더 포용적이고 지속 가능한 도시 미래를 열어가겠다”고 밝혔다.
이번 성과는 KAIST 도시인공지능연구소과 미국 MIT 센서블 시티 랩(MIT Senseable City Lab)이 참여한 AI 분야 글로벌 협력 연구사업 과제로, 서울AI재단의 후원을 받아 수행되었다.
※연구성과 이미지/동영상: https://05970c0c.slw-6vy.pages.dev/
사람처럼 텍스트·이미지 등 동시에 이해하는 멀티모달 AI 개발
보통 그림과 글자가 함께 있을 때 사람의 시선이 그림에 먼저 가는 것처럼, 여러 감각을 동시에 활용하는 ‘멀티모달 인공지능’도 특정 데이터에 더 크게 의존하는 경향이 있다. 우리 대학 연구진은 이러한 상황에서도 그림과 글자를 모두 고르게 인식하여 훨씬 더 정확한 예측을 가능케 하는 멀티모달 인공지능 학습 기술을 개발했다.
우리 대학은 전기및전자공학부 황의종 교수 연구팀이 다양한 데이터 유형을 한 번에 처리해야 하는 멀티모달 인공지능이 모든 데이터를 고르게 활용할 수 있도록 돕는 새로운 학습 데이터 증강 기술을 개발했다고 14일 밝혔다.
멀티모달 인공지능은 텍스트, 영상 등 여러 데이터를 동시에 활용해 판단하고 있다. 하지만 인공지능은 여러 정보를 받아들일 때, 한쪽 데이터에 치우쳐 판단하는 경향을 보여 예측 성능이 떨어지는 문제가 있었다.
연구팀은 이 문제를 해결하기 위해, 일부러 서로 어울리지 않는 데이터를 섞어서 학습에 사용했다. 그러면 인공지능은 어떤 경우에도 한쪽 데이터에만 의존하지 않고, 글과 그림, 소리 등 모든 데이터를 균형 있게 활용하는 방법을 배우게 된다.
또, 품질이 낮은 데이터는 보완하고, 어려운 데이터는 더 강조해서 훈련하는 방식까지 더해 다양한 상황에서도 안정적으로 성능을 높일 수 있음을 보여줬다. 이 방법은 특별한 모델 구조에 묶이지 않고, 어떤 종류의 데이터에도 쉽게 적용할 수 있어 확장성과 실용성이 크다는 점에서 의미가 있다.
황의종 교수는 “AI 성능을 높이려면 모델 구조(알고리즘)만 바꾸는 것보다, 어떤 데이터를 어떻게 학습에 쓰느냐가 훨씬 중요하다”며 “이번 연구는 멀티모달 인공지능이 특정 데이터(예: 영상, 텍스트)에 치우치지 않고 균형 있게 정보를 활용할 수 있도록 데이터 자체를 설계하고 가공하는 접근법이 효과적일 수 있음을 보여줬다”고 말했다.
이번 연구에는 전기및전자공학부 황성현 박사과정, 최소영 석사과정이 공동 제1저자로 참여했으며, 황의종 교수가 교신저자로 참여했다. 연구 결과는 오는 12월 미국 샌디에이고와 멕시코 멕시코시티에서 열리는 AI 분야 최고 권위 국제학술대회 NeurIPS(Conference on Neural Information Processing Systems)에서 발표될 예정이다.
※ 논문명: MIDAS: Misalignment-based Data Augmentation Strategy for Imbalanced Multimodal Learning, 논문 원본: https://arxiv.org/pdf/2509.25831
한편, 이번 연구는 정보통신기획평가원(IITP)의 지원을 받은 ‘강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습’ 과제 (RS-2022-II220157)와 ‘뇌질환 진단 및 치료용 비침습 근적외선 기반 AI 기술’ 과제 (RS-2024-00444862)의 지원을 받아 수행됐다.
도시 인공지능 연구소, 과기정통부 Brain Pool 기관유치형 과제 선정
우리 대학 도시 인공지능 연구소(소장: 윤윤진 교수)가 과학기술정보통신부 Brain Pool(BP) 기관유치형 과제에 선정되었습니다. 이번 성과는 연구소장 윤윤진 교수와 건설 및 환경공학과 인소영, 전기및전자공학부 한수진 교수과 함께 기획한 공동 제안이 결실을 맺은 것으로, 연구소의 도시 인공지능 분야 연구 역량과 국제적 협력 잠재력을 높이 평가받은 결과입니다.
이번 BP 과제는 총 28개월간 21억 원 규모로 추진되며, 해외 저명 석학을 초빙해 Geospatial AI, Climate AI, Physical AI 등 세 가지 핵심 분야를 중심으로 도시 문제 해결형 인공지능 연구를 본격적으로 수행할 예정입니다. 이를 통해 산·학·연·관 협력 체계를 기반으로 인공지능 핵심 기술을 개발하여 도시의 지속 가능한 성장과 ‘인지 도시’로의 전환을 선도하고, 시민이 체감하는 다양한 문제를 사전에 진단·대응하는 연구를 이어갈 것입니다.
특히 이번 과제는 여성 중심 기관형 브레인풀 과제라는 점에서 의미가 큽니다. KAIST는 신진 여성 연구자들의 성장을 체계적으로 지원하고, 차세대 여성 과학기술인의 국제 연구 네트워크 참여를 적극적으로 확대할 예정입니다. 이는 국내 이공계에서 상대적으로 부족한 여성 연구 인력 양성과 연구 리더십 강화에도 크게 기여할 것으로 기대됩니다.
더불어 MIT, NYU, UIUC, UBC, USF, University of Toronto 등 세계 유수 대학의 연구자들과의 장기 공동연구를 통해 도시 인공지능 연구소는 국내 및 아시아를 선도하는 Urban AI 연구 허브로 도약할 예정입니다.
앞으로도 글로벌 협력을 바탕으로 미래 도시의 복잡한 문제에 대응하고, 인공지능을 통한 혁신적 기술 고도화를 위한 핵심 연구를 매진해 나갈 것입니다.
제4회 한국인공지능시스템포럼 조찬 강연회 성료
인공지능이 물리적 세계와 직접 맞닿으며 산업 현장에 빠르게 스며드는 ‘Physical AI’ 시대의 흐름을 짚어보는 자리가 마련되었다. 우리 대학 인공지능반도체대학원은 9월 8일(월) 오전 대전 오노마 호텔에서 ‘제4회 한국인공지능시스템포럼(KAISF)’ 조찬 강연회를 개최하였다.
이번 강연회에서는 ㈜로보티즈 표윤석 이사가“Physical AI 연구 동향과 작업형 휴머노이드 AI Worker 개발 히스토리”를 주제로 초청 강연을 진행했다. 표 이사는 글로벌 Physical AI 연구 현황을 소개하며, 로보티즈가 추진 중인 산업 현장 맞춤형 휴머노이드 로봇 개발 전략을 구체적으로 설명하였다.
특히, 모방 학습(Imitation Learning)을 통한 로봇의 작업 습득, 소형·고출력 액추에이터 및 자체 개발 감속기 등 핵심 부품의 기술적 진보는 참가자들에게 실제 산업 현장에서 적용 가능한 로봇 플랫폼의 가능성을 보여주었다. 그는 로보티즈가 제시하는 “노동으로부터의 자유(Freedom from Work)”라는 비전을 바탕으로, 제조·물류·서비스 분야에 특화된 ‘AI Worker’ 개발 사례를 공유하였다.
참석자들은 단순한 기술 개념을 넘어, 현장에서 안정적이고 효율적으로 활용될 수 있는 Physical AI 로봇의 필요성에 깊이 공감하며 활발히 의견을 나누었다.
한국인공지능시스템포럼 유회준 의장(KAIST 교수)은“Physical AI는 세계 각국이 선도권을 확보하기 위해 치열하게 경쟁하는 분야입니다. KAISF는 한국형 산업 생태계를 구축해, 우리 기업들이 글로벌 시장에서 앞서 나갈 수 있도록 지원하겠다.”고 밝혔다.
KAISF는 앞으로 산업계와 학계, 연구기관을 긴밀히 연결하여 한국형 Physical AI 기술이 글로벌 무대에서 경쟁력을 확보할 수 있도록 집중할 계획이다. 이를 통해 AI 반도체, 로보틱스, 시스템 통합을 아우르는 차별화된 산업 생태계 조성을 추진할 것이다.