< 그림 (3) 연구 주요 참여자 프로필 사진 (1저자 및 교신저자). 1. 안동현 KAIST 전산학부 박사과정 2. 양재석 싱가포르국립대학 지리학과 박사과정 3. 차미영 KAIST 교수/IBS CI 4. 김지희 KAIST 교수 5. 박상윤 홍콩과기대학 교수 6. 양현주 서강대 교수 >
유엔기구(UN)의 지속가능발전목표(SDGs)에 따르면 하루 2달러 이하로 생활하는 절대빈곤 인구가 7억 명에 달하지만 그 빈곤의 현황을 제대로 파악하기는 쉽지 않다. 전 세계 중 53개국은 지난 15년 동안 농업 관련 현황 조사를 하지 못했으며, 17개국은 인구 센서스(인구주택 총조사)조차 진행하지 못했다. 이러한 데이터 부족을 극복하려는 시도로, 누구나 웹에서 받아볼 수 있는 인공위성 영상을 활용해 경제 지표를 추정하는 기술이 주목받고 있다.
우리 대학 차미영-김지희 교수 연구팀이 기초과학연구원, 서강대, 홍콩과기대(HKUST), 싱가포르국립대(NUS)와 국제공동연구를 통해 주간 위성영상을 활용해 경제 상황을 분석하는 새로운 인공지능(AI) 기법을 개발했다고 21일 밝혔다. 연구팀이 주목한 것은 기존 통계자료를 기반으로 학습하는 일반적인 환경이 아닌, 기초 통계도 미비한 최빈국(最貧國)까지 모니터링할 수 있는 범용적인 모델이다.
연구팀은 유럽우주국(ESA)이 운용하며 무료로 공개하는 센티넬-2(Sentinel-2) 위성영상을 활용했다. 연구팀은 먼저 위성영상을 약 6제곱킬로미터(2.5×2.5㎢)의 작은 구역으로 세밀하게 분할한 후, 각 구역의 경제 지표를 건물, 도로, 녹지 등의 시각적 정보를 기반으로 AI 기법을 통해 수치화했다.
이번 연구 모델이 이전 연구와 차별화된 점은 기초 데이터가 부족한 지역에도 적용할 수 있게끔 인간이 제시하는 정보를 인공지능의 예측에 반영하는 `인간-기계 협업 알고리즘'에 있다. 즉, 인간이 위성영상을 보고 경제 활동의 많고 적음을 비교하면, 기계는 이러한 인간이 제공한 정보를 학습하여 각각의 영상자료에 경제 점수를 부여한다. 검증 결과, 기계학습만 사용했을 때보다 인간과 협업할 경우 성능이 월등히 우수했다.
< 그림 (1) 경제규모 예측에 주로 사용되어 온 야간조도 영상(좌상단: 배경사진 미국 항공우주국(NASA) 지구 관측소 제공). 불빛이 환한 남한에 비해 북한은 평양을 제외하고 전기 수급이 되지 않아 검게 나타남. 반면 이번 연구팀에서 개발한 모델은 북한(우상단)과 아시아 5개국(하단: 배경사진 구글어스)에 대해 더욱 세밀한 경제 예측 결과를 보여줌. >
이번 연구를 통해 연구팀은 기존 통계자료가 부족한 지역까지 경제분석의 범위를 확장하고, 북한 및 아시아 5개국(네팔, 라오스, 미얀마, 방글라데시, 캄보디아)에도 같은 기술을 적용하여 세밀한 경제 지표 점수를 공개했다. (그림 1) 이 연구가 제시한 경제 지표는 기존의 인구밀도, 고용 수, 사업체 수 등의 사회경제지표와 높은 상관관계를 보였으며, 데이터가 부족한 저개발국가에 적용 가능함을 연구팀은 확인했다.

< 그림 (2) 2016년과 2019년 위성영상과 경제점수 차이. 관광개발구 중 하나인 원산 갈마지구(상단)는 유의미한 개발이 발견되었으나 공업개발구인 위원개발구(하단)는 변화가 나타나지 않았음. (배경사진: 센티넬-2 위성영상 유럽우주국 (ESA) 제공) >
이러한 변화탐지를 북한에 적용한 결과, 대북 경제제재가 심화된 2016년과 2019년 사이에 북한 경제에서 세 가지 경향을 발견할 수 있었다. 첫째, 북한의 경제 발전은 평양과 대도시에 더욱 집중되어 도시와 농촌 간 격차가 심화됐다. 둘째, 경제제재와 달러 외환의 부족을 극복하기 위해 설치한 관광 경제개발구에서는 새로운 건물 건설 등 유의미한 변화가 위성영상 이미지와 연구의 경제 지표 점수 변화에서 드러났다. 셋째, 전통적인 공업 및 수출 경제개발구 유형에서는 반대로 변화가 미미한 것으로 확인됐다.
연구에 참여한 우리 대학 전산학부·IBS 데이터사이언스그룹 CI 차미영 교수는 "전산학, 경제학, 지리학이 융합된 이번 연구는 범지구적 차원의 빈곤 문제를 다룬다는 점에서 중요한 의미가 있으며, 이번에 개발한 인공지능 알고리즘을 앞으로 이산화탄소 배출량, 재해재난 피해 탐지, 기후 변화로 인한 영향 등 다양한 국제사회 문제에 적용해 볼 계획이다ˮ 라고 말했다.
이 연구에는 경제학자인 우리 대학 기술경영학부 김지희 교수, 서강대 경제학과 양현주 교수, 홍콩과기대 박상윤 교수도 함께 참여하였다. 이들은 “이 모델은 저비용으로 개발도상국의 경제 상황을 상세하게 확인할 수 있어 국제개발협력(ODA) 사업에 도움을 줄 수 있을 것으로 예상된다”며 “이번 연구가 선진국과 후진국 간의 데이터 격차를 줄이고 유엔과 국제사회의 공동목표인 지속가능한 발전을 달성하는 데 기여할 수 있기를 바란다ˮ고 밝혔다.
위성영상과 인공지능을 활용한 SDGs 지표의 개발과 이의 정책적 활용은 국제적인 주목을 받고 있는 기술 분야 중 하나이며 한국이 앞으로 주도권을 가지고 이끌 수 있는 연구 분야이다. 이에 연구팀은 개발한 모델 코드를 무료로 공개하며, 측정한 지표가 여러 국가의 정책 설계 및 평가에 유용하게 사용될 수 있도록 앞으로도 기술을 개선하고 매해 새롭게 업데이트되는 인공위성 영상에 적용하여 공개할 계획이다.
한편 이번 연구 결과는 전산학부 안동현 박사과정, 싱가포르 국립대 양재석 박사과정이 공동 1저자로 국제 학술지 네이처 출판 그룹의 `네이처 커뮤니케이션즈(Nature Communications)'에 지난 10월 26일 자 게재됐다. (논문명: A human-machine collaborative approach measures economic development using satellite imagery, 인간-기계 협업과 위성영상 분석에 기반한 경제 발전 측정).
논문링크: https://www.nature.com/articles/s41467-023-42122-8
우리 대학 인공지능반도체대학원은 4월 8일(수) 오전 대전 오노마 호텔에서 '제5회 한국인공지능시스템포럼(KAISF)' 조찬 강연회를 성공적으로 개최하였다. 이번 강연회는 인공지능이 물리 세계와 직접 맞닿으며 산업 현장에 빠르게 스며드는 'Physical AI' 시대를 주제로, 총 63명의 산학 전문가가 참석한 가운데 활발한 논의가 이루어졌다. 초청 강연은 ㈜NC AI 이연수 대표이사와 김민재 CTO가 '물리 내재화 기반의 차세대 피지컬 AI와 전주기 통합 플랫폼 개발 현황'을 주제로 공동 진행하였다. 강연에서는 AI 기술의 발전으로 물리 법칙을 스스로 이해하는 피지컬 AI가 로봇 산업의 판도를 바꾸고 있는 현황을 소개하며, 다음 세 가지 핵심 내용을 중심으로 전개되었다. ▲질량·마찰·탄성 등 역학적 관계를 내재화한 WFM(월드 파운데이션 모델) 핵심 기술 및 로봇 파운데이션 모델(RFM) 기반 작업 지능 최적화 ▲Sim-to-Real 간극을 최소화
2026-04-10우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다. 우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다. GPCR(G-Protein Coupled Rece
2026-03-09우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23