-
영상 속 1등이 어디죠? ‘딱 그 순간’을 찾아내는 AI 기술 세계 1위
‘카메라가 다른 곳을 비추는 사이 사라진 물체는 무엇 인가요?’라는 복잡한 질문이 나오면 AI는 많은 경우 영상 속 실제 상황을 보고 판단하는 것이 아니라, 언어 패턴에 의존해 ‘그럴듯한 답’을 추측하는 문제가 있다. 우리 대학 연구진은 이 한계를 해결하기 위해 영상 속 ‘딱 중요한 순간(Trigger moment)’을 AI가 스스로 찾아내도록 하는 기술을 개발했고, 이 기술로 국제 AI 대회에서 우수성을 입증했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 이화여대 노준혁 교수 연구팀과 공동 연구를 통해, 세계적 권위의 컴퓨터 비전 학회 ICCV 2025에서 열린 Perception Test Challenge의 영상 근거 기반 질의응답(Grounded Video Question Answering) 트랙에서 1위를 차지했다고 28일 밝혔다.
이번 ICCV 2025에서 열린 인지 테스트 대회(Perception Test Challenge)는 구글 딥마인드(Google DeepMind)가 주관하여 총 상금 50,000 유로(한화 약 8,300만원)가 걸린 대회로, 영상·음성·텍스트 등 다양한 데이터를 종합적으로 이해하는 멀티모달 AI의 인지 및 추론 능력을 평가한다. 특히 언어 중심 편향을 벗어나 실제 영상 근거를 바탕으로 판단하는 능력이 핵심 평가 요소다.
우리 대학 연구팀은 영상 전체를 무작정 분석하는 기존 방식과 달리, AI가 정답을 위해 꼭 필요한 핵심 장면(Trigger moment)을 먼저 찾아내도록 만드는 새로운 기술을 개발했다. 쉽게 말하면, “이 질문에 답하려면 이 장면이 결정적이야!”를 AI가 스스로 찾아내도록 설계한 기술이다.
이 프레임워크를 연구팀은 CORTEX(Chain-of-Reasoning for Trigger Moment Extraction)라고 부른다.
연구팀의 시스템은 서로 다른 기능을 수행하는 세 모델이 순차적으로 작동하는 3단계 구조로 구성된다. 먼저 추론 AI(Gemini 2.5 Pro)가 질문에 답하기 위해 어느 순간을 봐야 하는지 사고하고 딱 그 순간(Trigger moment) 후보를 찾는다. 다음으로 객체 위치 찾기 모델(Grounding 모델, Molmo-7B)이 해당 순간 화면 속 사람·차·사물의 정확한 위치(좌표)를 파악한다. 마지막으로 추적 모델(Tracking 모델, SAM2)이 선택된 한 장면을 기준으로 앞뒤 시간대의 객체 움직임을 정밀하게 추적해 오류를 줄인다.
즉, ‘핵심 장면 한 컷을 정확히 찍고, 그 장면을 중심으로 정답 근거를 추적하는 방식’덕분에 영상 초반 오판이나 가려짐 같은 문제도 크게 줄었다.
총 23개 팀이 참여한 영상 근거 기반 질의응답(Grounded VideoQA) 트랙에서 KAIST팀 SGVR Lab(Scalable Graphics, Vision & Robotics Lab)은 ‘고차 추적 정확도(HOTA, Higher Order Tracking Accuracy)’지표에서 0.4968점을 기록하며 2등 미국 콜럼비아대의 0.4304점을 압도적인 점수 차로 상회하며 1위를 차지했다. 이는 전년도 우승 기록 0.2704점보다도 약 두 배에 가까운 성과다.
이 기술은 실생활에서도 넓게 쓰일 수 있다. 자율주행차는 사고 위험이 있는 순간을 정확히 보고, 로봇은 주변 상황을 더 똑똑하게 이해한다. 또 보안·감시 시스템은 중요한 장면을 빠르게 찾아내고, 미디어 분석에서는 사람이나 사물의 행동을 시간 순서대로 정확히 추적할 수 있다.
즉, AI가 “영상 속 실제 근거”를 보고 판단할 수 있도록 만드는 핵심 기술이다. 특히 영상 속 객체가 시간에 따라 어떻게 행동하는지 정확히 짚어내는 능력은 향후 AI의 실제 현장 적용을 크게 확장할 것으로 기대된다.
이번 연구는 ICCV 2025, the 3rd Perception Test Challenge 학회에서 10월 19일자 발표하였다.
이 성과는 과학기술정보통신부 기초연구사업 중견연구와 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 및 AGI 사업 ‘체화형 AGI를 위한 현실 세계 구축과 인지 에이전트 기반 이원 역량 접근법’ 과제의 지원을 받아 수행되었다.
2025.11.28
조회수 624
-
입어도 되고 수술 없이 치료도 되는 초음파 센서 나왔다
기존의 몸에 부착해 사용하는 초음파 센서는 출력 세기가 약하고 구조가 쉽게 변형돼, 고해상도 영상이나 치료 목적으로 활용하기 어려웠다. 우리 대학 연구팀이 이러한 한계를 극복하고 곡률(휘어진 정도)을 자유롭게 조절할 수 있는 유연 초음파 센서 기술을 개발했다. 이번 성과는 몸에 밀착해 정확한 영상을 얻는 웨어러블 의료기기와 수술 없이 초음파로 치료까지 가능한 비침습적 차세대 의료기술의 발전 가능성을 크게 높였다.
우리 대학은 전기및전자공학부 이현주 교수 연구팀이 반도체 웨이퍼 공정(MEMS)을 활용해 유연함부터 단단함까지 자유롭게 구현할 수 있는 ‘Flex-to-Rigid(FTR) 구조’의 초음파 트랜스듀서(센서, CMUT)를 제작했다고 12일 밝혔다.
연구팀은 저온에서 녹는 금속(저융점 합금, LMPA)을 소자 내부에 삽입해, 전류를 가하면 금속이 녹아 자유롭게 형태를 바꾸고, 냉각 시 다시 고체로 굳어 원하는 곡면 형태로 고정할 수 있는 기술을 구현했다.
기존의 고분자(폴리머) 막 기반 초음파 센서(CMUT)는 낮은 탄성계수(딱딱함)로 인해 충분한 음향 에너지를 발생시키지 못하고, 진동 시 초점이 흐려지는 문제가 있었다. 또한 곡률 조절이 어려워 목표 위치에 정밀하게 초점을 맞추기 힘든 한계가 있었다.
이현주 교수 연구팀은 단단한 실리콘 기판에 유연한 엘라스토머(고무 유사 물질) 브리지를 결합한 FTR 구조를 고안해 높은 출력 성능과 유연성을 동시에 확보했다. 내부의 저융점 합금은 전류에 의해 고체와 액체 상태를 오가며, 소자의 형태를 자유롭게 조정하고 고정할 수 있도록 돕는다.
그 결과, 초음파가 한 점으로 모이도록 전자적으로 신호를 제어하는 ‘별도의 빔 조정’ 과정 없이도 이번에 개발한 센서로 기계적으로 모양(곡률)에 맞추어 초점을 자동으로 형성하기 때문에 특정 부위에 정밀한 초음파 초점을 형성할 수 있었으며, 반복적인 굽힘에도 안정적인 전기·음향 특성이 유지됨을 확인했다.
이 센서의 출력은 조직을 손상시키지 않고 특정 부위를 부드럽게 자극해 치료 효과를 내는 초음파 기술인 ‘저강도 집속 초음파(LIFU)’ 수준 이상으로, 수술이나 절개 없이 신경과 장기를 자극해 염증을 완화하는 비침습적 치료에 활용될 수 있음이 검증됐다.
연구팀은 이 소자를 동물 모델에 적용해 비장(spleen)을 비침습적으로 자극하는 실험을 수행했으며, 그 결과 관절염 모델에서 염증이 완화되고 보행이 개선되는 치료 효과를 확인했다.
향후에는 한줄(1차원)이 아닌 많은 초음파 센서를 평면 위에 바둑판처럼 배열한 구조인 ‘2차원 배열 소자’ 개발을 통해 고해상도 초음파 영상과 치료를 동시에 구현하는 스마트 의료 기술로 발전시킬 계획이다.
또한 이 기술은 반도체 공정과 호환돼 대량 생산이 가능하므로, 웨어러블 및 재택 의료용 초음파 시스템으로 확장될 전망이다.
이번 연구에는 전기및전자공학부 이상목 박사와 샤오지아 량(Xiaojia Liang) 박사과정이 공동 제1저자로 참여했으며, 연구 결과는 국제 학술지 네이처 파트너 저널 플렉서블 일렉트로닉스(npj Flexible Electronics, IF 15.5)에 10월 23일 자 온라인판으로 게재됐다.
※ 논문명: Flexible ultrasound transducer array with statically adjustable curvature for anti-inflammatory treatment DOI https://doi.org/10.1038/s41528-025-00484-7
과학기술정보통신부 바이오‧의료기술개발사업(뇌과학 선도융합기술개발사업)과 범부처전주기의료기기연구개발사업단의 지원을 받아 수행됐다.
2025.11.12
조회수 1632
-
MICCAI 국제학회 주관 뇌혈관 구획화 대회 MRI 및 CT 부문 1위
우리 대학 바이오및뇌공학과 박성홍 교수 연구실(연구실명: 자기공명영상 연구실, Magnetic Resonance Imaging Laboratory)이 MICCAI 국제학회의 TopBrain 뇌 혈관 Segmentation Challenge에서 1등상을 수상했다.
MICCAI의 TopBrain Challenge는 뇌혈관을 가장 정확히 구획화(Segmentation)하는 딥러닝 네트워크 개발을 놓고 매년 전세계적으로 경쟁하는 대회로서 올해로 3회째를 맞고 있다. 이전 두 대회는 TopCoW라는 이름으로 대뇌동맥고리(circle of willis) 영역 구획화로만 치러졌고, 올해 처음 TopBrain이라는 이름으로 뇌 전체 혈관 구획화로 확장되었다. MICCAI (Medical Image Computing and Computer Assisted Intervention)는 매년 전세계 의료영상연구자들의 모임으로써 올해는 대전 convention center (DCC)에서 전세계 3천명 내외의 연구자가 참여했다.
TopBrain Challenge는 MICCAI에서 개최하는 50개 Challenge중 하나로서, MRI 뇌혈관영상과 CT 뇌혈관영상에 대해 따로 경쟁을 치른다. 지난 8월 대회가 시작되었고 9월 21일 최종 딥러닝 네트워크 제출마감, 9월 23일 MICCAI 학회에서 수상자 발표의 순으로 진행되었다.
MRI 뇌혈관영상 분야와 CT 뇌혈관영상 분야 모두 1등상은 박성홍 교수 연구실의 김우승, Naparasa Asawalertsak, 김민재, 신동호 네 학생이 KPopDemonHunters라는 팀명으로 참여하여 수상하였다.
구체적으로, OpenMind pre-trained network를 활용하여, self-supervised learning을 이용하여 fine tuning을 진행하고, binary segmentation을 이용하여 false positive 값들을 줄이고, 공개된 TopCoW 데이터를 추가로 활용하여 pseudo-label을 만들어서 네트워크 정확도를 개선하였다. 개발된 네트워크는 MRI 뇌혈관영상의 경우 단순한 1등이 아니라 대회를 주관한 challenge organizer 팀들보다도 더 높은 성능을 보였다.
2025.10.13
조회수 1025
-
'MICCAI 2025' 전야제 'KAIST Day' 성황리에 개최
우리 대학은 9월 22일 KAIST 학술문화관 정근모 콘퍼런스홀에서 열린 ‘MICCAI 2025’의 전야제 ‘KAIST Day’특별 심포지움을 30여 명의 해외 석학과 200여 명의 국내 연구자 및 학생이 참석한 가운데 성공적으로 개최했다고 23일 밝혔다.
이번 행사는 세계 최대 규모의 의료영상 학회인 MICCAI 2025(The 28th International Conference on Medical Image Computing and Computer Assisted Intervention, 대회장: KAIST 전산학부 박진아 교수) 개최를 기념해 마련된 특별 프로그램으로, KAIST 공대와 대전시가 후원했으며 “통찰에서 중재까지: 바이오메디컬 영상지능(From Insight to Intervention: Intelligent Imaging in Biomedicine)”을 주제로 진행되었다.
KAIST와 세계 석학들이 한자리에 모여 의료영상과 인공지능을 접목한 최신 연구 성과를 공유하고, 진단과 치료를 아우르는 차세대 의료기술 발전 방향을 심도 있게 논의했다.
미주, 유럽, 아시아 지역에서 온 세계적 석학 7명이 최신 연구를 소개했으며, 해외 석학 30여 명은 KAIST의 첨단 의료영상 인프라를 둘러보고 국내 연구진과 교류하며 협력 가능성을 모색했다. 또한 참석한 국내 연구자와 학생들은 네트워킹 세션을 통해 협업과 국제 공동연구의 기회를 가졌다.
이번 행사는 MICCAI 2025 개막을 앞두고 국내 연구자들에게 세계 석학을 만날 기회를 제공하며, KAIST와 대전시가 한국을 글로벌 의료 AI 연구의 거점으로 키워가는 출발점이자 상징적 자리로 마련되었다.
행사는 조승룡 교수와 이현주 교무부처장의 기획·사회로 진행되었으며, 4개 세션으로 구성되었다. 먼저 박현욱 교수가 KAIST 의료영상 연구의 역사와 발전을 소개했다. 이어 진단 및 질병 이해를 위한 인공지능(AI for Diagnosis & Disease Understanding)세션에서는 앤 마텔, 켄지 수즈키, 헤이잇 그린스판, 디미트리스 메탁사스 교수가 암 진단, 조기 탐지, 희귀 질환 분석, 다중모달 융합 등 AI 기반 의료영상의 최신 연구를 발표했다.
다음 치료 중재를 위한 영상 지능(Imaging Intelligence for Intervention) 세션에서는 나시르 나밥, 박용근, 제임스 지, 레오 요스코위츠, 배현민 교수가 AR·VR 수술 보조, 초고해상도 영상, 아틀라스 기반 분석, 수술 계획 지원, 뇌신경 영상 맞춤치료 등 임상 적용 사례를 공유했다.
각 발표는 진단을 넘어 치료와 맞춤형 의료로 확장되는 미래 의료영상의 가능성을 보여주었으며, 토론과 질의응답을 통해 활발한 교류가 이어졌다. 강연 후 해외 연구자들은 KAIST의 첨단 인프라를 둘러보고 국내 연구진과 심도 있는 논의를 진행했다.
또한 NVIDIA의 후원으로 NVIDIA Isaac for Healthcare Hands-on Lab(엔비디아 아이작 포 헬스케어 핸즈온 랩)이 열려 연구자와 학생들이 최신 AI 의료 플랫폼을 직접 체험할 수 있었다.
박진아 KAIST 전산학부 교수이자 MICCAI 2025 대회장은 “MICCAI는 임상 적용에 중점을 둔 세계 최고 수준의 의료 AI 학회”라며, “KAIST의 도전적 연구를 국제사회에 소개하고 학문적 교류를 통해 새로운 시너지를 만들고자 이번 행사를 마련했다. 23일부터 27일까지 대전컨벤션센터에서 열리는 MICCAI 2025에는 3,200여 명이 등록해 대전을 대표하는 국제학술행사가 될 것으로 기대한다”고 밝혔다.
이광형 KAIST 총장은 “MICCAI 2025 개최는 한국 과학기술의 국제적 위상을 보여주는 성과”라며, “특히 KAIST에서 열린 이번 전야제 성격의 심포지엄은 세계 석학들이 모여 의료영상과 AI의 미래를 논의한 뜻깊은 자리였으며, KAIST의 위상을 다시 한번 확인하는 계기가 되었다. KAIST는 앞으로도 글로벌 협력을 확대해 인류 건강 증진에 기여하는 연구와 교육에 앞장서겠다”고 밝혔다.
※ MICCAI 2025 웹사이트: https://conferences.miccai.org/2025/en/
2025.09.23
조회수 1126
-
안개 속 모습도 또렷하게..숨겨진 영상 복원 AI 개발
물방울이 맺힌 유리창 밖을 보면 물체의 형체를 선명하게 알아볼 수 없는 것처럼, 카메라 센서에도 산란에 의해 뒤섞인 빛이 들어오면 흐린 영상이 촬영된다. 우리 연구진은 이러한 손상 영상을 시간의 연속성을 분석하여 선명하게 복원하는 AI 기술을 개발했다. 영상 촬영에선 산란 효과 뿐만 아니라 아지랑이와 같은 수차 효과, 야간에 발생하는 광자 잡음 효과 등 다양한 영상 손상 현상이 일어날 수 있는데, 이번에 개발된 기술은 이러한 다양한 손상 현상에 범용적으로 적용될 수 있어 향후 의료·방산·로봇 비전 분야에서 커다란 전환점을 마련할 것으로 기대된다.
우리 대학 바이오및뇌공학과 장무석 교수와 김재철AI대학원 예종철 교수 공동 연구팀이 움직이는 산란 매질 너머의 숨겨진 영상을 복원할 수 있는 ‘비디오 디퓨전 기반 영상 복원 기술(시간축 정보 정합성을 활용해 흐릿하거나 손상된 영상을 디퓨전 모델로 되살리는 기술)’을 세계 최초로 개발했다고 31일 밝혔다.
이 기술은 안개 낀 도로에서 자동차 전조등을 켜도 시야가 흐릿하게 보이는 현상이나, 김 서린 욕실 유리창 너머의 모습이 왜곡되어 보이는 것처럼 빛이 흐트러지는 환경에서도 원래 영상을 선명하게 복원할 수 있게 한다.
산란 매질은 빛의 경로를 무질서하게 섞어 시각 정보를 왜곡하는 물질로, 안개·연기·불투명 유리·피부 조직 등이 대표적이다. 이번에 개발된 기술은 기존에 보이지 않던 영역을 마치 ‘가려진 간유리 뒤를 들여다보듯’ 복원할 수 있게 해준다.
이를 통해 혈액이나 피부 속을 들여다보는 비침습적 의료 진단, 화재 현장의 연기 속 인명 구조, 벽에서 반사된 빛으로 영상을 복원하는 비시선 영상, 안개 낀 도로에서의 안전 운전 보조, 불투명 유리나 플라스틱 내부의 산업 검사, 흐린 물속 시야 확보 등 일상과 산업 전반에 활용될 수 있는 길을 열었다.
연구팀은 기존 인공지능 복원 기술이 훈련된 데이터 범위에서만 성능을 내는 한계를 극복하기 위해, 광학 모델과 비디오 디퓨전 모델을 결합한 새로운 복원 방식을 제안했다.
특히 시간에 따라 산란 환경이 변하는 경우(예: 바람에 흔들리는 커튼 너머 풍경)에도 안정적으로 복원할 수 있도록 연속된 영상의 시간적 상관관계를 학습한 디퓨전 모델을 도입했다. 그 결과 다양한 거리·두께·잡음 조건에서도 기존 최고 성능의 복원 모델을 뛰어넘는 결과를 얻었다.
공동 연구팀은 디퓨전 기반 복원 기술 중 최초로 시간 상관관계를 반영해, 움직이는 산란 매질 너머에서 정자의 움직임 패턴을 관찰하는 데 성공함으로써 세계적으로 큰 학문적 의미를 남겼다. 또한, 별도의 추가 학습 없이도 안개 제거, 영상 화질 개선(고해상도 프레임 생성), 블라인드 디블러링(흐린 영상 선명화) 등 다양한 상황에서 적응적으로 영상을 복원할 수 있는 최적화 기법을 도입해, 범용 복원 프레임워크로 확장될 가능성을 입증했다.
권태성 연구원은 “시간 상관관계를 학습한 디퓨전 모델이 움직이는 산란매질 너머 보이지 않는 데이터를 복원하는 광학 역문제 해결에 효과적임을 확인했다”면서, “앞으로는 안개 제거, 영상 화질 개선, 블라인드 디블러링 뿐만 아니라, 빛의 시간적 변화를 역추적해야 풀 수 있는 다양한 광학 역문제로 연구를 확장할 계획”이라고 밝혔다.
이번 연구는 바이오및뇌공학과 권태성·송국호 박사과정이 공동 제1 저자로 참여했으며, 세계 최고 수준의 인공지능 학술지 IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI)에 8월 13일에 게재됐다.
※논문명: Video Diffusion Posterior Sampling for Seeing Beyond Dynamic Scattering Layers
※DOI: 10.1109/TPAMI.2025.3598457
이번 연구는 과학기술정보통신부, 한국연구재단의 우수신진 연구자 사업 및 뇌선도연구센터사업, 삼성미래기술육성사업, AI 스타펠로우십의 지원을 받아 수행됐다.
2025.09.01
조회수 2096
-
차세대소형위성2호 2년 임무 완수 - 북극·산림 변화 척척 관측
우리 대학 우주연구원(원장 한재흥)이 개발하여 2023년 5월 25일 18시 24분 나로우주센터에서 누리호 3차로 발사한 차세대소형위성2호가 핵심 임무인 국산 영상레이다(SAR, Synthetic Aperture Radar) 기술검증 및 전천후 지구관측 등을 지난 2년간 성공적으로 마쳤다.
차세대소형위성2호에 탑재된 영상레이다 시스템은 KAIST 우주연구원이 국내 최초로 설계, 제작, 지상 시험․평가를 거쳐 국산화한 기술로, 2025년 5월 25일 자로 2년간의 우주 궤도상 기술검증 임무를 성공적으로 완료했다.
특히 이 영상레이다 시스템이 100kg급 소형위성인 차세대소형위성2호에 탑재되어 관측임무를 완수했다는 점은, 우주용 영상레이다 시스템의 소형·경량화 기술 확보와 국내 위성기술 경쟁력 강화 측면에서 의미가 크다.
개발된 영상레이다는 전자파를 이용하는 능동 센서로, 주야간 기상조건에 관계없이 전천후 영상 획득이 가능한 장점이 있다. 어두운 밤이나 구름 또는 비가 많은 기상 환경에서도 관측할 수 있어 한반도처럼 강우와 구름이 빈번한 지역의 감시에 특히 유용하다.
위성 발사 이후, 차세대소형위성2호는 하루 평균 3~4회의 영상 촬영을 수행하며 기능점검과 기술검증을 진행해 왔다. 현재까지 1,200회 이상의 지구관측을 완료했으며, 위성의 임무 수명이 지난 현재에도 영상레이더의 성능은 양호하여, 관측 임무를 안정적으로 이어가고 있다.
국산화 기술 검증 단계임에도, KAIST 우주연구원은 극지연구소(소장 신형철) 및 국립공원연구원(원장 김진태)과 협력하여 2024년 3월 이후에는 북극 빙권 변화분석과 산림 영역 변화탐지를 위한 관심 지역을 우선 촬영하고 있다.
KAIST 우주연구원은 북극 해빙 관심지역에 대한 반복 관측을 수행하고 있으며, 극지연구소 원격탐사빙권정보센터는 관측결과를 이용하여 시계열 기반의 분석을 통해 기후변화로 인한 해빙 면적 및 구조 변화를 정밀 추적하고 있다.
최근, 극지연구소는 차세대소형위성2호와 유럽 우주청(ESA)의 센티넬-1호(Sentinel-1)의 관측 데이터를 융합하여, 캐나다 밀른(Milne) 빙붕(Ice Shelf, 육지에서 흐른 빙하가 바다로 흘러 들어가면서 바다 위에 떠 있는 거대한 얼음층)에서 2021년부터 2025년 사이에 빙붕 뒤편의 얼음 호수 면적이 무려 15㎢나 증가한 사실을 포착했다. 이로 인해 구조적 불안정성이 심화되고 있으며, 이는 북극의 기후 변화가 가속화되고 있음을 보여주는 중요한 신호로 분석된다.
극지연구소 원격탐사빙권정보센터 김현철 센터장은 "이번 연구 결과는 북극 빙붕이 기후변화에 얼마나 취약한지를 보여주는 중요한 증거이며 앞으로도 차세대소형위성2호 영상레이다를 이용한 지속적인 관측과 분석을 통해 북극 환경 변화를 예측하고, 국제적인 협력을 강화해 나갈 것"이라고 밝혔다. 또한 “이번 연구 성과를 국제학술대회에 발표하며 북극 환경 변화에 대한 국민의 이해를 높이기 위해 교육과 홍보 활동도 전개할 예정”이라고 덧붙였다.
한편, 국립공원연구원 기후변화연구센터와 협력을 통해, 차세대소형위성2호의 영상자료는 기후변화에 따른 생물계절 변화탐지, 고지대 침엽수 고사 및 산사태와 같은 산림 생태계 변화 모니터링 연구에도 활용되고 있다. 아울러 산림지역의 탄소 저장량 공간 분포를 위성 영상으로 분석하고, 이를 현장 측정값과 비교하여 분석 정밀도를 높이는 연구도 병행 중이다.
영상레이다는 빛과 날씨에 영향을 받지 않을 뿐 아니라, 산불 발생 시 시야를 가리는 화염과 연기를 뚫고도 관측이 가능하다. 따라서 넓은 면적의 보호구역을 정기적으로 감시하는 데 매우 효과적인 도구로, 향후 산림 보호정책 수립에도 기여할 것으로 기대된다.
뿐만 아니라, KAIST 우주연구원은 차세대소형위성2호의 관측 영상 활용도 제고를 위해 우주항공청(윤영빈 청장)의 예산지원으로 위성에서 수신된 기술 검증 중심의 데이터를 연구기관들이 쉽게 활용할 수 있도록 표준 영상 제품으로 가공하는 시스템도 개발 중이다.
우주연구원 한재흥 원장은 “차세대소형위성2호는 국산화 개발에 성공한 데에 그치지 않고, 실제 환경 분석과 국가 연구에 직접 활용되어 성과를 내고 있다는 점에서 더욱 큰 의미가 있다”며 “앞으로도 차세대소형위성2호 영상레이다 데이터의 활용에 힘쓸 것”이라고 밝혔다.
이광형 KAIST 총장은 “차세대소형위성2호는 KAIST가 보유한 우주 기술력과 연구진의 혁신 역량을 집약한 결과물로, 이번 성과는 KAIST가 앞으로 우주 기술 인재 양성과 연구개발에 더 큰 가능성을 보여줄 수 있는 신호라고 생각하고 앞으로도 이에 더욱 박차를 가할 것”이라고 밝혔다.
2025.05.29
조회수 4113
-
KAIST-고려대, 심혈관 진단 정밀도 높이는 영상기술 개발 및 임상 성공
우리 대학 기계공학과 유홍기 교수팀이 고려대학교 구로병원 심혈관센터 김진원 교수팀과 협력해, 관상동맥 질환의 진단 정밀도를 혁신적으로 높일 수 있는 영상기술을 개발하고, 이를 세계 최초로 사람을 대상으로 한 임상시험에 성공했다.
이번 연구에서는 광간섭단층촬영(OCT)과 형광수명영상(FLIm)을 결합한 차세대 다중 모달 영상 기술을 실제 환자에게 적용해, 심장 혈관 속 동맥경화반*의 구조뿐만 아니라 그 내부의 생화학적 조성까지 실시간으로 정밀하게 파악할 수 있음을 입증했다.
*동맥경화반: 콜레스테롤과 염증 세포 등이 동맥 벽에 쌓여 혈관이 좁아지게 만드는 병변.
기존 영상기술로는 경화반 내부의 복잡한 병변을 정확히 구분하거나 정량화하기 어려웠지만, OCT-FLIm 기술을 통해 염증, 치유반(손상 회복 흔적), 칼슘 침착 등 다양한 병리 정보를 정밀하게 구분할 수 있다. 특히, FLIm의 형광 수명 정보를 활용함으로써, 이러한 생화학적 특성이 환자의 임상 상태와 밀접하게 연관되어 있음을 확인했다.
연구진은 급성 심근경색과 같은 급성 관상동맥 증후군 환자에서는 염증 지표가 높게 나타났으며, 급속히 진행되는 병변에서는 반복된 경화반 파열과 치유로 인해 치유반이 높은 빈도로 뚜렷하게 분포하는 특징을 발견했다. 이는 심혈관 질환의 진행 정도나 개별 경화반의 상태를 보다 정밀하게 파악할 수 있는 단서를 제공한다.
이번 임상에서는 OCT와 FLIm을 완전히 통합한 융합 영상 카테터(Catheter)가 사용되었다. 연구진은 국내 환자 40명을 대상으로 실제 혈관 재개통 시술 중 해당 카테터를 삽입하여 병변을 분석했고, 모든 환자에서 시술이 안전하게 완료되었다. 이는 세계 최초로 융합 영상 카테터를 임상에 성공적으로 적용한 사례다.
*영상카테터: 관상동맥 내부에 삽입되어, 끝단에 부착된 렌즈를 통해 영상을 촬영하는 가느다란 관 모양의 의료기기
동맥경화반의 병태생리는 매우 복잡하며, 단순한 해부학적 정보만으로는 향후 심혈관 질환 발생 여부나 치료 예후를 예측하기 어렵다는 사실이 여러 연구를 통해 밝혀지고 있다. 이번 연구는 실제 환자의 혈관에서 병리학적 위험 요소를 실시간으로 시각화하고 정량화한 세계 최초로 임상 사례로, 심혈관 질환의 정밀 진단과 개인 맞춤형 치료 전략 개발에 있어 중요한 전환점이 될 것으로 기대된다.
유홍기 교수가 공동 교신저자, 남형수 연구교수가 공동 제1 저자로 참여한 이번 연구 결과는 심장학 분야 최고 권위 학술지인 미국의학회 심장학 저널, 자마 카디오로지(JAMA Cardiology, Journal of the American Medical Association)에 2025년 5월 7일 자로 게재되었다.
※ 논문명: Intracoronary Structural-Molecular Imaging for Multitargeted Characterization of High-Risk Plaque
DOI: 10.1001/jamacardio.2025.0928
이번 연구는 삼성미래기술육성사업 및 범부처전주기의료기기연구개발사업의 지원으로 수행되었다.
2025.05.08
조회수 4430
-
기술가치창출원, 국내대학 최초 등록 표준특허 수입 100억 돌파
대학의 연구개발로 확보한 원천기술이 동영상 압축 국제 표준의 핵심 특허로 최초 등록되어 누적 기술료 100억 돌파했다.
우리 대학이 기술가치창출원(원장 이건재)에서 추진한 동영상 압축 기술 특허가 국제 표준 핵심 특허로 등록된 이후 누적 기술료 총 100억을 돌파했다고 2일 밝혔다.
해당 특허는 2014년 김문철‧박현욱 전기 및 전자공학부 교수가 개발한 고효율 동영상 압축기술(High Efficiency Video Coding, HEVC)로 미국 컬럼비아 대학과 함께 대학 최초로 국제표준 특허풀에 등록되었다. 디지털 영상의 압축 및 압축을 해제하는 장치 및 소프트웨어를 포함해 총 246건의 표준특허를 확보했다.
HEVC(H.265)는 UHD 초고화질급 해상도를 가진 대용량 영상데이터를 효율적으로 압축하기 위해 만들어진 국제 기술표준으로, TV와 방송, 스마트폰, 액션캠, CCTV, 실시간 스트리밍 등 다양한 초고화질 영상에 적용이 가능하다.
동영상 재생을 위해 필요한 다양한 특허 활용을 위해서 엑세스 어드벤스(Access Advance, 구 HEVC Advance) 특허풀(Patent Pool) 등은 HEVC 기술들을 선별하여 표준특허를 구성하고 라이센스 업무를 대행하고 있다. 이런 표준특허로 등록된 기술들은 관련 시장을 선점하고 차세대 기술 경쟁에서 우위를 차지할 수 있어 세계 각국은 표준특허를 차지하기 위해 치열한 각축을 벌이고 있다.
HEVC 관련 시장은 본격적인 성장기에 도달했으며, 다른 표준 기술들은 성장 초기 단계인 상황에서도 KAIST는 2024년도에만 아마존, 애플, 구글 등으로부터 약 54억 원의 표준기술료 수익을 달성했다.
기술가치창출원에서는 철저한 특허 분석을 통한 표준화 전략을 수립하고 보유 기술을 다수의 표준 특허풀에 제안해 대학의 연구로 확보한 원천기술이 동영상 압축 국제 표준의 핵심 특허로 인정받는 성과를 거뒀다.
또한, 글로벌 기술사업화 강화를 위하여 기술이전 본부(Technology License Office, TLO)와 전담 웹사이트(https://tlo.kaist.ac.kr)를 신설하였다.
뿐만 아니라 산학협력과 기술이전을 확대하기 위한 온라인 플랫폼 구축, 유망 기술 선정 및 홍보, 유망 해외 특허 출원 확대, 기술이전 전문가(TLO)가 주도하여 추진하는 기획 기술이전 등을 추진하고 있다.
이건재 기술가치창출원장은 “우리 대학의 기술사업화를 도약시키기 위해, 발로 뛰는 TLO 조직, 표준특허 집중 육성, 지식재산/산학협력/기술이전 간의 연계를 강화함으로써 글로벌 시장에서의 경제적 가치를 높일 계획”이라고 전했다.
이어, “특히, 신설한 기술이전 본부를 통해 미래 KAIST 핵심 먹거리인 표준특허, 5G·6G 통신, 바이오·제약, 양자·AI 반도체 분야에 집중적으로 투자하여 대학 기술이전의 메카로 발돋움할 계획”이라고 밝혔다.
한편, 동 표준특허 확보를 위해 기술가치창출원은 특허청 산하 한국특허전략개발원의 ‘지식재산 수익 재투자 지원사업’지원을 받았다.
2024.10.02
조회수 5820
-
차세대 새로운 패러다임 동영상 인식기술 개발
챗GPT와 같은 거대 언어 모델의 근간이 되는 트랜스포머로 구축된 기존 비디오 모델보다 8배 낮은 연산량과 4배 낮은 메모리 사용량으로도 높은 정확도를 기록했으며, 추론 속도 또한 기존 트랜스포머 기반 모델 대비 4배의 매우 빠른 속도를 달성한 동영상 인식기술이 우리 연구진에 의해 개발됐다.
우리 대학 전기및전자공학부 김창익 교수 연구팀이 초고효율 동영상 인식 모델 ‘비디오맘바(VideoMamba)’를 개발했다고 23일 밝혔다.
비디오맘바는 기존 트랜스포머 기반 모델들이 가지고 있는 높은 계산 복잡성을 해결하기 위해 설계된 새로운 동영상 인식 모델이다. 기존의 트랜스포머 기반 모델들은 셀프-어텐션(self-attention)이라는 메커니즘에 의존해 계산 복잡도가 제곱으로 증가하는 문제를 가지고 있었다.
김창익 교수 연구팀의 비디오맘바는 선택적 상태 공간 모델(Selective State Space Model, Selective SSM)* 메커니즘을 활용해 선형 복잡도**로 효율적인 처리가 가능하다. 이를 통해 비디오맘바는 동영상의 시공간적 정보를 효과적으로 포착해 긴 종속성을 가진 동영상 데이터도 효율적으로 처리할 수 있다.
*선택적 상태 공간 모델(Selective SSM): 입력에 따라 동적으로 매개변수를 조정하여 시퀀스 데이터의 문맥을 더 잘 이해하는 상태 공간 모델
**선형 복잡도:입력 데이터의 크기에 비례하여 계산량이 증가하는 알고리즘 복잡도
김창익 교수 연구팀은 동영상 인식 모델의 효율성을 극대화하기 위해 비디오맘바에 1차원 데이터 처리에 국한된 기존 선택적 상태 공간 메커니즘을 3차원 시공간 데이터 분석이 가능하도록 고도화한 시공간적 전방 및 후방 선택적 상태 공간 모델(spatio-temporal forward and backward SSM)을 도입했다. 이 모델은 순서가 없는 공간 정보와 순차적인 시간 정보를 효과적으로 통합해 인식 성능을 향상한다. 연구팀은 다양한 동영상 인식 벤치마크에서 비디오맘바의 성능을 검증했다.
연구팀이 개발한 비디오맘바는 영상 분석이 필요한 다양한 응용 분야에서 효율적이고 실용적인 솔루션을 제공할 수 있다. 예를 들어, 자율주행에서는 주행 영상을 분석해 도로 상황을 정확하게 파악하고, 보행자와 장애물을 실시간으로 인식해 사고를 예방할 수 있다. 의료 분야에서는 수술 영상을 분석해 환자의 상태를 실시간으로 모니터링하고 긴급 상황 발생 시 신속히 대처할 수 있다. 스포츠 분야에서는 경기 중 선수들의 움직임과 전술을 분석해 전략을 개선하고, 훈련 중 피로도나 부상 가능성을 실시간으로 감지해 예방할 수 있다.
연구를 주도한 김창익 교수는 “비디오맘바의 빠른 처리 속도와 낮은 메모리 사용량, 그리고 뛰어난 성능은 우리 생활에서의 다양한 동영상 활용 분야에 큰 장점을 제공할 것이다”고 연구의 의의를 설명했다.
이번 연구에는 전기및전자공학부 박진영 석박사통합과정, 김희선 박사과정, 고강욱 박사과정이 공동 제1 저자, 김민범 박사과정이 공동 저자, 그리고 전기및전자공학부 김창익 교수가 교신 저자로 참여했다. 연구 결과는 올해 9월 이탈리아 밀라노에서 열리는 컴퓨터 비전 분야 최우수 국제 학회 중 하나인 ‘European Conference on Computer Vision(ECCV) 2024’에서 발표될 예정이다. (논문명: VideoMamba: Spatio-Temporal Selective State Space Model)
한편, 이번 연구는 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행됐다. (No. 2020-0-00153, 기계학습 모델 보안 역기능 취약점 자동 탐지 및 방어 기술 개발)
2024.07.23
조회수 7724
-
인공지능으로 배터리 원소, 충방전 상태 인식
국제공동연구진이 인공지능 학습을 통해 배터리의 표면 형상만 보고 각 원소의 함량 그리고 충·방전 횟수에 대한 정보를 높은 정확도로 알아내는 영상인식 기술을 개발하여 화제다.
우리 대학 신소재공학과 홍승범 교수가 한국전자통신연구원(ETRI), 미국 드렉셀대학과 공동연구를 통해 다양한 조성과 각기 다른 충·방전 사이클의 NCM 양극재 주사전자현미경 사진을 합성곱 신경망* 기반 인공지능에 학습시켜 주요 원소 함량과 충·방전 상태를 99.6%의 높은 정확도로 맞추는 방법론을 세계 최초로 개발했다고 2일 밝혔다.
*합성곱 신경망(콘볼루션 신경망, Convolutional Neural Network, CNN): 시각적 영상을 분석하는 데 사용되는 다층의 피드-포워드적인 인공신경망의 한 종류이다.
연구팀은 반도체 공정에서는 웨이퍼의 불량 검수를 위해 주사전자현미경(SEM)을 사용하는 반면 배터리 공정에서는 그런 경우가 드물고 연구 현장에서만 입자의 크기 분석을 위해 SEM을 활용하고, 열화된 배터리 소재의 경우 입자가 깨지고 부서지는 형상으로부터 신뢰성을 예측하는 것에 착안했다. 연구팀은 반도체 공정에서와 같이 배터리 공정도 자동화된 SEM으로 양극재 표면을 검수해서 원하는 조성대로 합성이 되었는지 수명은 신뢰성 있게 나올 것인지를 확인해 불량률을 줄일 수 있다면 획기적일 것으로 판단했다.
연구진은 자율주행차에 적용가능한 합성곱 신경망 기반 인공지능에 배터리 소재의 표면 영상을 학습시켜서 양극재의 주 원소 함량과 충·방전 사이클 상태를 예측할 수 있게 했다. 이런 방법론이 첨가제가 들어간 양극재에도 적용가능한 지 확인한 결과 함량은 상당히 정확하게 예측하는 반면 충·방전 상태는 정확도가 낮다는 단점을 알게 됐다. 이에 연구팀은 향후 다양한 공정을 통해서 만든 배터리 소재의 형상을 학습시켜 차세대 배터리의 조성 균일성 검수 및 수명 예측에 활용할 계획이다.
연구를 이끈 홍승범 교수는 “이번 연구는 세계 최초로 마이크론 스케일의 주사전자현미경 사진의 소재 구조 데이터를 통해 주 원소 함량과 충·방전 상태를 빠르고 정확하게 예측할 수 있는 인공지능 기반 방법론을 개발한 데 의의가 있고 이번 연구에서 개발된 현미경 영상 기반 배터리 소재의 함량 및 상태 감별 방법론은 향후 배터리 소재의 성능과 품질을 향상하는 데 중요한 역할을 하게 될 것으로 기대된다”고 전망했다.
한편, 이번 연구는 공동 제1 저자인 신소재공학과 졸업생 오지민 박사와 염지원 박사와 공동저자인 ETRI 김광만 박사와 미국 드렉셀 대학교 아가르(Agar) 교수가 참여하였고, 한국연구재단(2020M3H4A3081880, RS-2023-00247245), KAIST 글로벌특이점 사업의 지원 및 미국 연구진과의 국제공동연구를 통해 수행됐으며, 국제 학술지 ‘엔피제이 컴퓨테이셔날 머티리얼즈(npj computational materials)’에 지난 5월 4일 자 출판됐다. (논문 제목: Composition and state prediction of lithium-ion cathode via convolutional neural network trained on scanning electron microscopy images)
2024.07.02
조회수 11510
-
KAIST미술관이 기획한 롯데월드 서울스카이 초청 전시, “다누리의 스펙타클 365”
우리 대학이 이달 20일부터 대한민국 최초의 달 탐사선인 다누리의 달 궤도 임무운영 1주년을 기념하기 위한 전시회를 ㈜롯데월드 서울스카이(SEOUL SKY)에서 개최한다. '다누리의 스펙타클 365'는 KAIST 미술관이 지난 6월부터 8월까지 본교 창의학습관에서 진행했던 '다누리의 스펙타클' 전시의 연장선이다. 대한민국 항공우주산업의 연구성과를 전시해 우주여행에 대한 간접 체험을 제공하고 미디어아트와 다누리 촬영 작품을 통해 우주과학 기술에 대한 관람객의 상상력을 자극하기 위해 기획됐다.
㈜롯데월드 서울스카이의 초청을 받아 규모를 확장해 진행하는 이번 전시는 서울스카이 곳곳에 작품을 설치해 관람객을 맞이하는 것이 가장 큰 특징이다. 120층 메인홀에는 국내 최초로 지구와 달을 동시에 촬영한 작품과 다누리 모형을 배치해 작품을 통해 다누리가 바라본 우주의 모습을 입체적으로 감상할 수 있게 공간을 구성했다. 전시장 안쪽으로는 달 궤도 진입 후 조우한 달의 모습과 미국 아르테미스 유인 미션 착륙 후보지 등의 작품이 전시된다.
120층 전시장으로 향하는 지하 1층 매표소에는 발사체가 우주로 진입하는 영상을 배치해 우주여행을 떠나는 듯한 몰입감을 극대화했다. 지하 2층에는 모션그래픽을 활용한 영상작품을 감상할 수 있는 미디어월이 설치됐다. 다누리가 촬영한 지구와 달을 배치해 관람객에게 공전 및 자전을 관측하는 듯한 경험을 선사하고 통로 측에는 인공위성 관제실 그래픽과 다누리 발사 당시 음향을 활용해 다누리의 발사에 함께하는 듯한 현장감을 더했다.
이외에도 대한민국 우주과학 기술의 여정을 대중에게 소개하기 위해 KAIST 인공위성연구소가 개발한 우리나라 최초 인공위성 우리별 1호도 전시된다. 석현정 KAIST 미술관장은 "이번 전시는 과학기술의 결과물을 감상이 가능한 콘텐츠로 만들어내 관람객들이 예술적 감동을 느낄 수 있도록 공간을 구성했다"라고 전했다. 이어 석 관장은 "다누리의 달 궤도 임무운영 1주년을 기념하는 이 특별한 순간을 함께 나누는 전시 관람을 통해 대한민국 우주과학 기술의 성과를 체감하고 우주를 향한 우리의 도전에도 많은 관심과 응원 부탁드린다"라고 덧붙였다. 한편, '다누리의 스펙타클 365' 전시회는 KAIST 미술관이 한국항공우주연구원, 과학기술정보통신부와 함께 공동 주관·주최한다. KAIST 인공위성연구소, 한국연구재단이 참여하고 ㈜롯데월드 서울스카이가 후원하며, 오는 1월 31일(수)까지 ㈜롯데월드 서울스카이 입장객에게 무료로 공개된다.
2023.12.19
조회수 7154
-
인공지능으로 북한 등 경제지표 추정하다
유엔기구(UN)의 지속가능발전목표(SDGs)에 따르면 하루 2달러 이하로 생활하는 절대빈곤 인구가 7억 명에 달하지만 그 빈곤의 현황을 제대로 파악하기는 쉽지 않다. 전 세계 중 53개국은 지난 15년 동안 농업 관련 현황 조사를 하지 못했으며, 17개국은 인구 센서스(인구주택 총조사)조차 진행하지 못했다. 이러한 데이터 부족을 극복하려는 시도로, 누구나 웹에서 받아볼 수 있는 인공위성 영상을 활용해 경제 지표를 추정하는 기술이 주목받고 있다.
우리 대학 차미영-김지희 교수 연구팀이 기초과학연구원, 서강대, 홍콩과기대(HKUST), 싱가포르국립대(NUS)와 국제공동연구를 통해 주간 위성영상을 활용해 경제 상황을 분석하는 새로운 인공지능(AI) 기법을 개발했다고 21일 밝혔다. 연구팀이 주목한 것은 기존 통계자료를 기반으로 학습하는 일반적인 환경이 아닌, 기초 통계도 미비한 최빈국(最貧國)까지 모니터링할 수 있는 범용적인 모델이다.
연구팀은 유럽우주국(ESA)이 운용하며 무료로 공개하는 센티넬-2(Sentinel-2) 위성영상을 활용했다. 연구팀은 먼저 위성영상을 약 6제곱킬로미터(2.5×2.5㎢)의 작은 구역으로 세밀하게 분할한 후, 각 구역의 경제 지표를 건물, 도로, 녹지 등의 시각적 정보를 기반으로 AI 기법을 통해 수치화했다.
이번 연구 모델이 이전 연구와 차별화된 점은 기초 데이터가 부족한 지역에도 적용할 수 있게끔 인간이 제시하는 정보를 인공지능의 예측에 반영하는 `인간-기계 협업 알고리즘'에 있다. 즉, 인간이 위성영상을 보고 경제 활동의 많고 적음을 비교하면, 기계는 이러한 인간이 제공한 정보를 학습하여 각각의 영상자료에 경제 점수를 부여한다. 검증 결과, 기계학습만 사용했을 때보다 인간과 협업할 경우 성능이 월등히 우수했다.
이번 연구를 통해 연구팀은 기존 통계자료가 부족한 지역까지 경제분석의 범위를 확장하고, 북한 및 아시아 5개국(네팔, 라오스, 미얀마, 방글라데시, 캄보디아)에도 같은 기술을 적용하여 세밀한 경제 지표 점수를 공개했다. (그림 1) 이 연구가 제시한 경제 지표는 기존의 인구밀도, 고용 수, 사업체 수 등의 사회경제지표와 높은 상관관계를 보였으며, 데이터가 부족한 저개발국가에 적용 가능함을 연구팀은 확인했다.
이러한 변화탐지를 북한에 적용한 결과, 대북 경제제재가 심화된 2016년과 2019년 사이에 북한 경제에서 세 가지 경향을 발견할 수 있었다. 첫째, 북한의 경제 발전은 평양과 대도시에 더욱 집중되어 도시와 농촌 간 격차가 심화됐다. 둘째, 경제제재와 달러 외환의 부족을 극복하기 위해 설치한 관광 경제개발구에서는 새로운 건물 건설 등 유의미한 변화가 위성영상 이미지와 연구의 경제 지표 점수 변화에서 드러났다. 셋째, 전통적인 공업 및 수출 경제개발구 유형에서는 반대로 변화가 미미한 것으로 확인됐다.
연구에 참여한 우리 대학 전산학부·IBS 데이터사이언스그룹 CI 차미영 교수는 "전산학, 경제학, 지리학이 융합된 이번 연구는 범지구적 차원의 빈곤 문제를 다룬다는 점에서 중요한 의미가 있으며, 이번에 개발한 인공지능 알고리즘을 앞으로 이산화탄소 배출량, 재해재난 피해 탐지, 기후 변화로 인한 영향 등 다양한 국제사회 문제에 적용해 볼 계획이다ˮ 라고 말했다.
이 연구에는 경제학자인 우리 대학 기술경영학부 김지희 교수, 서강대 경제학과 양현주 교수, 홍콩과기대 박상윤 교수도 함께 참여하였다. 이들은 “이 모델은 저비용으로 개발도상국의 경제 상황을 상세하게 확인할 수 있어 국제개발협력(ODA) 사업에 도움을 줄 수 있을 것으로 예상된다”며 “이번 연구가 선진국과 후진국 간의 데이터 격차를 줄이고 유엔과 국제사회의 공동목표인 지속가능한 발전을 달성하는 데 기여할 수 있기를 바란다ˮ고 밝혔다.
위성영상과 인공지능을 활용한 SDGs 지표의 개발과 이의 정책적 활용은 국제적인 주목을 받고 있는 기술 분야 중 하나이며 한국이 앞으로 주도권을 가지고 이끌 수 있는 연구 분야이다. 이에 연구팀은 개발한 모델 코드를 무료로 공개하며, 측정한 지표가 여러 국가의 정책 설계 및 평가에 유용하게 사용될 수 있도록 앞으로도 기술을 개선하고 매해 새롭게 업데이트되는 인공위성 영상에 적용하여 공개할 계획이다.
한편 이번 연구 결과는 전산학부 안동현 박사과정, 싱가포르 국립대 양재석 박사과정이 공동 1저자로 국제 학술지 네이처 출판 그룹의 `네이처 커뮤니케이션즈(Nature Communications)'에 지난 10월 26일 자 게재됐다. (논문명: A human-machine collaborative approach measures economic development using satellite imagery, 인간-기계 협업과 위성영상 분석에 기반한 경제 발전 측정).
논문링크: https://www.nature.com/articles/s41467-023-42122-8
2023.11.21
조회수 12651