휴대폰 사진 단 몇 장으로 구현한 생생한 3D 가상 환경 속으로
기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다.
기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한계가 있었다. 이러한 제약 때문에 실제 환경에서의 적용이 어렵고, 대중적 활용에도 제동이 걸려왔다.
연구팀은 이러한 문제를 해결하기 위해, 단 2~3장의 일반 사진만으로도 3차원 장면과 카메라의 방향을 동시에 추정해 정확한 3D 모델을 구축하는 기술을 개발했다. 별도의 추가 학습이나 정밀한 보정 과정 없이도 실제 환경에서 신속하고 정밀한 복원이 가능해 효율성과 범용성이 매우 높은 기술로 평가받고 있다.
핵심 기술인 SHARE는 영상 속에서 사물의 형태(Shape)와 카메라의 시선 방향(Ray)을 동시에 추정하는 새로운 방식을 도입했다.
기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면, SHARE는 영상 자체에서 공간 정보를 스스로 찾아내어 카메라와 구조를 추론한다. 이를 통해 서로 다른 위치에서 촬영된 다중 영상을 하나의 공통된 공간으로 정렬하고, 형상 왜곡 없이 안정적인 3D 복원을 실현했다.
윤성의 교수는 “SHARE 기술은 3D 복원의 진입 장벽을 획기적으로 낮춘 기술로, 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 밝혔다.
이번 연구는 나영주 박사과정, 김태연 석사과정 학생이 공동 제1저자로 참여했으며, 연구 결과는 국제 이미지 처리 학회(IEEE International Conference on Image Processing, ICIP 2025)에서 9월 17일 발표되어 ‘최고 학생논문상(Best Student Paper Award)’을 수상했다.
이 상은 올해 채택된 643편의 논문 중 단 한 편에게만 수여되는 영예(수상률 0.16%)로, KAIST 연구진의 우수한 연구역량을 다시 한 번 입증했다.
*논문명 : Pose-free 3D Gaussian Splatting via Shape-Ray Estimation, DOI https://arxiv.org/abs/2505.22978
*수상정보: https://www.linkedin.com/posts/ieeeicip_congratulations-to-the-icip-2025-best-activity-7374146976449335297-6hXz
이번 성과는 과학기술정보통신부 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 과제지원으로 수행되었다.
‘뻔하지 않은 창의적인 의자’그리는 AI 기술 개발
최근 텍스트 기반 이미지 생성 모델은 자연어로 제공된 설명만으로도 고해상도·고품질 이미지를 자동 생성할 수 있다. 하지만, 대표적인 예인 스테이블 디퓨전(Stable Diffusion) 모델에서 ‘창의적인’이라는 텍스트를 입력했을 경우, 창의적인 이미지 생성은 아직은 제한적인 수준이다. KAIST 연구진이 스테이블 디퓨전(Stable Diffusion) 등 텍스트 기반 이미지 생성 모델에 별도 학습 없이 창의성을 강화할 수 있는 기술을 개발해, 예컨대 뻔하지 않은 창의적인 의자 디자인도 인공지능이 스스로 그려낼 수 있게 됐다.
우리 대학 김재철AI대학원 최재식 교수 연구팀이 네이버(NAVER) AI Lab과 공동 연구를 통해, 추가적 학습 없이 인공지능(AI) 생성 모델의 창의적 생성을 강화하는 기술을 개발했다.
최 교수 연구팀은 텍스트 기반 이미지 생성 모델의 내부 특징 맵을 증폭해 창의적 생성을 강화하는 기술을 개발했다. 또한, 모델 내부의 얕은 블록들이 창의적 생성에 중요한 역할을 한다는 것을 발견하고, 특징 맵을 주파수 영역으로 변환 후, 높은 주파수 영역에 해당하는 부분의 값을 증폭하면 노이즈나 작게 조각난 색깔 패턴의 형태를 유발하는 것을 확인했다. 이에 따라, 연구팀은 얕은 블록의 낮은 주파수 영역을 증폭함으로써 효과적으로 창의적 생성을 강화할 수 있음을 보였다.
연구팀은 창의성을 정의하는 두 가지 핵심 요소인 독창성과 유용성을 모두 고려해, 생성 모델 내부의 각 블록 별로 최적의 증폭 값을 자동으로 선택하는 알고리즘을 제시했다.
개발된 알고리즘을 통해 사전 학습된 스테이블 디퓨전 모델의 내부 특징 맵을 적절히 증폭해 추가적인 분류 데이터나 학습 없이 창의적 생성을 강화할 수 있었다.
연구팀은 개발된 알고리즘을 사용하면 기존 모델 대비 더욱 참신하면서도 유용성이 크게 저하되지 않은 이미지를 생성할 수 있음을 다양한 측정치를 활용해 정량적으로 입증했다.
특히, 스테이블 디퓨전 XL(SDXL) 모델의 이미지 생성 속도를 대폭 향상하기 위해 개발된 SDXL-Turbo 모델에서 발생하는 모드 붕괴 문제를 완화함으로써 이미지 다양성이 증가한 것을 확인했다. 나아가, 사용자 연구를 통해 사람이 직접 평가했을 때도 기존 방법에 비해 유용성 대비 참신성이 크게 향상됨을 입증했다.
공동 제1 저자인 KAIST 한지연, 권다희 박사과정은 "생성 모델을 새로 학습하거나 미세조정 학습하지 않고 생성 모델의 창의적인 생성을 강화하는 최초의 방법론ˮ이라며 "학습된 인공지능 생성 모델 내부에 잠재된 창의성을 특징 맵 조작을 통해 강화할 수 있음을 보였다ˮ 라고 말했다.
이어 “이번 연구는 기존 학습된 모델에서도 텍스트만으로 창의적 이미지를 손쉽게 생성할 수 있게 됐으며, 이를 통해 창의적인 상품 디자인 등 다양한 분야에서 새로운 영감을 제공하고, 인공지능 모델이 창의적 생태계에서 실질적으로 유용하게 활용될 수 있도록 기여할 것으로 기대된다”라고 밝혔다.
KAIST 김재철AI대학원 한지연 박사과정과 권다희 박사과정이 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `국제 컴퓨터 비전 및 패턴인식 학술대회 (IEEE Conference on Computer Vision and Pattern Recognition, CVPR)’에서 6월 15일 발표됐다.
※논문명 : Enhancing Creative Generation on Stable Diffusion-based Models
※DOI: https://doi.org/10.48550/arXiv.2503.23538
한편 이번 연구는 KAIST-네이버 초창의적 AI 연구센터, 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원을 받은 혁신성장동력프로젝트 설명가능인공지능, AI 연구거점 프로젝트, 점차 강화되고 있는 윤리 정책에 발맞춰 유연하게 진화하는 인공지능 기술 개발 연구 및 KAIST 인공지능 대학원 프로그램과제의 지원을 받았고 방위사업청과 국방과학연구소의 지원으로 KAIST 미래 국방 인공지능 특화연구센터에서 수행됐다.
바이오 경로 이미지 분석하는 AI 최초 개발
유전자, 단백질, 대사물질 등 복잡한 정보를 표현하는 바이오 경로 이미지는 중요한 연구 결과를 내포하고 있지만, 이미지 기반 정보 추출에 대해 그동안 충분한 연구가 이뤄지지 않았다. 이에 우리 연구진은 바이오 경로 정보를 자동으로 추출할 수 있는 인공지능 프레임워크를 개발했다.
우리 대학 생명화학공학과 김현욱 교수 연구팀이 바이오 경로 이미지에서 유전자와 대사물질 정보를 자동으로 추출하는 기계학습 기반의 ‘바이오 경로 정보 추출 프레임워크(이하 EBPI, Extraction of Biological Pathway Information)’를 개발했다고 28일 밝혔다.
연구팀이 개발한 EBPI는 문헌에서 추출한 이미지 속의 화살표와 텍스트를 인식하고, 이를 기반으로 바이오 경로를 편집 가능한 표의 형태로 재구성한다. 객체 감지 모델 등의 기계학습을 사용해 경로 이미지 내 화살표의 위치와 방향을 감지하고, 이미지 속 텍스트를 유전자, 단백질, 대사물질로 분류한다. 그 후 추출된 정보를 통합해 경로 정보를 표 형식으로 제공한다.
연구팀은 74,853편의 논문에서 추출한 바이오 경로 이미지와 기존 수작업으로 작성된 경로 지도를 비교하며 EBPI의 성능을 검증했다. 그 결과, 높은 정확도로 바이오 경로 정보가 자동으로 추출됐음을 확인했다.
EBPI를 사용해 대표적인 바이오 경로 데이터베이스에 포함되지 않은 생화학 반응 정보를 대량의 문헌 내 바이오 경로 이미지로부터 추출하는 데에도 성공했다.
다양한 산업적 가치를 지닌 대사물질들의 생합성 관련 문헌을 EBPI로 분석한 결과, 문헌에서는 보고가 됐지만, 기존 데이터베이스에서는 누락된 생화학 반응들이 확인된 것이다. 화학산업에서 다양한 응용분야를 갖는 1,4-부탄디올, 2-메틸부티르산, 하이드록시티로솔, 레불린산 및 발레로락탐의 생합성 경로를 예시로 이러한 발견을 제시했다.
연구를 총괄한 김현욱 교수는 “이번 연구에서 개발된 EBPI는 대규모 문헌 데이터 분석에 있어 중요한 도구가 될 것이며 생명공학, 대사공학 및 합성생물학 분야에서 바이오 경로 이미지를 AI로 분석하는 최초의 사례로, 관련 연구의 실험 디자인 및 분석 시 유용하게 활용될 수 있을 것”이라고 밝혔다.
생명화학공학과 권문수 박사과정생과 이준규 박사과정생이 공동 제1 저자인 이번 연구는 대사공학 및 합성생물학 분야의 대표적 국제학술지인 대사공학(Metabolic Engineering, JCR 분야 상위 10% 이내)에 11월호에 게재됐다.
※ 논문명 : A machine learning framework for extracting information from biological pathway images in the literature
※ 저자 정보 : 권문수(한국과학기술원, 공동 제1 저자), 이준규(한국과학기술원, 공동 제1 저자), 김현욱(한국과학기술원, 교신저자) 포함 총 3명
한편 이번 연구는 과학기술정보통신부 한국연구재단 및 농촌진흥청의 농업미생물사업단의 지원을 받아 수행됐다.
초박막으로 초고해상도 이미지 즐긴다
한미 공동 연구진이 기존 센서 대비 전력 효율이 높고 크기가 작은 고성능 이미지 센서를 구현할 수 있는 차세대 고해상도 이미지 센서 기술을 개발했다. 특히 세계 시장에서 소니(Sony)社가 주도하고 있는 초고해상도 단파적외선(SWIR) 이미지 센서 기술에 대한 원천 기술을 확보해 향후 시장 진입 가능성이 크다.
우리 대학 전기및전자공학부 김상현 교수팀이 인하대, 미국 예일대와 공동연구를 통해 개발한 초박형 광대역 광다이오드(PD)가 고성능 이미지 센서 기술에 새로운 전환점을 마련했다고 20일 밝혔다.
이번 연구는 광다이오드의 기존 기술에서 나타나는 흡수층 두께와 양자 효율 간의 상충 관계를 획기적으로 개선한 것으로, 특히 1마이크로미터(μm) 이하의 얇은 흡수층에서도 70% 이상의 높은 양자 효율을 달성했다. 이 성과는 기존 기술의 흡수층 두께를 약 70% 줄이는 결과를 가져왔다.
흡수층이 얇아지면 화소 공정이 간단해져 높은 해상도 달성이 가능하고 캐리어 확산이 원활해져 광캐리어 획득에 유리한 장점이 있다. 더불어 원가도 절감이 가능하다. 그러나 일반적으로 흡수층이 얇아지면 장파장의 빛의 흡수는 줄어들게 되는 본질적인 문제가 존재한다.
연구진은 도파 모드 공명(GMR)* 구조를 도입해 400나노미터(nm)에서 1,700 나노미터(nm)에 이르는 넓은 스펙트럼 범위에서 고효율의 광 흡수를 유지할 수 있음을 입증했다. 이 파장 대역은 가시광선 영역뿐만 아니라 단파 적외선(SWIR) 영역까지 포함해 다양한 산업적 응용에서 중요한 역할을 할 것으로 기대된다.
*도파 모드 공명: 전자기학에서 사용하는 개념으로 특정 파동(빛)이 특정 파장에서 공명 (강한 전기/자기장 형성)하는 현상. 해당 조건에서 에너지가 최대화되기 때문에 안테나나 레이더 효율을 높이는데 활용된 바 있음.
단파 적외선 영역에서의 성능 향상은 점점 고해상도화되는 차세대 이미지 센서의 개발에도 중대한 기여를 할 것으로 예상된다. 특히, 도파 모드 공명 구조는 상보적 금속산화물 반도체(CMOS) 기반의 신호 판독 회로(ROIC)와의 하이브리드 집적, 모놀리식 3D 집적을 통해 해상도 및 기타 성능을 더욱 높일 가능성을 가진다.
연구팀은 저전력 소자 및 초고해상도 이미징 기술에 대한 국제 경쟁력을 높여 디지털카메라, 보안 시스템, 의료 및 산업용 이미지 센서 응용 분야부터 자동차 자율 주행, 항공 및 위성 관측 등 미래형 초고해상도 이미지 센서의 실현 가능성을 크게 높였다.
연구 책임자인 김상현 교수는 "이번 연구를 통해 초박막 흡수층에서도 기존 기술보다 훨씬 높은 성능을 구현할 수 있음을 입증했다”며, "특히 세계 시장에서 소니(Sony)社가 주도하고 있는 초고해상도 단파적외선(SWIR) 이미지 센서 기술에 대한 원천 기술을 확보해 향후 시장 진입 가능성을 열었다”고 설명했다.
이번 연구 결과는 인하대학교 금대명 교수(前 KAIST 박사후 연구원), 임진하 박사(現 예일대학교 박사후 연구원)이 공동 제1 저자로 참여해 국제 저명 학술지인 ‘빛, 과학과 응용(Light: Science & Applications, JCR 2.9%, IF=20.6)’에 11월 15일자 발표됐다. (논문제목: Highly-efficient (>70%) and Wide-spectral (400 nm -1700 nm) sub-micron-thick InGaAs photodiodes for future high resolution image sensors)
한편, 해당 연구는 한국연구재단의 지원을 받아 진행됐다.
딥러닝 적대적 공격을 막는 방어 프레임 개발
우리 대학 전기및전자공학부 노용만 교수 연구팀이 물체를 검출하는 딥러닝 신경망에 대한 적대적 공격을 방어하는 알고리즘을 개발했다고 15일 밝혔다.
최근 몇 년간 인공지능 딥러닝 신경망 기술이 나날이 발전하고 실세계에 활용되면서, 딥러닝 신경망 기술은 자율주행 및 물체검출 등 다양한 분야에서 떠오르는 핵심기술로 주목받고 있다.
하지만 현재의 딥러닝 기반 검출 네트워크는, 특정한 적대적 패턴을 입력 이미지에 악의적으로 주입하여 잘못된 예측 결과를 초래하는 적대적 공격에 대해 심각하게 취약하다. 적대적 패턴이란 공격자가 검출이 되지 않기 위해 인위적으로 만든 패턴이다. 이 패턴이 포함된 물체는 검출이 되지 않게 하는 것으로 적대적 패턴 공격이라 한다.
이러한 취약성은 인공지능으로 대표되는 딥러닝 기반의 모델을 국방이나 의료 및 자율주행 등 국민의 생명과 재산을 직접 다루는 분야에 적용할 때 크게 문제가 된다. 구체적인 예로 국방·보안을 위한 감시 정찰 분야에서 적군이 적대적 패턴으로 위장하여 침입하면 검출을 못하는 경우가 발생하여 국방 및 보안에 매우 큰 위험을 초래할 수 있다.
기존의 많은 연구가 적대적 패턴 공격을 막기 위해 노력했으나 추가로 복잡한 모듈이 필요하거나 네트워크를 처음부터 다시 학습해야 했기 때문에, 기존 연구는 실시간으로 동작하는 물체검출 알고리즘에 현실적으로 적용하기가 쉽지 않았다.
노 교수 연구팀은 물리적인 환경에서 적대적 패턴 공격의 원리를 반대로 이용해 적대적 공격을 막아내는 방어 프레임을 고안했다. 이러한 방어 프레임은 부가적인 복잡한 모듈이나 네트워크의 재학습이 필요하지 않으므로 보다 실용적이고 강인한 물체검출 네트워크를 구축하는데 폭넓게 응용 및 적용될 수 있을 것으로 기대된다.
공동 제1 저자인 전기및전자공학부 유영준 박사과정 학생과 이홍주 박사과정 학생 등이 함께 수행한 이번 연구는 영상처리 분야 최고의 국제 학술지인 `IEEE Transactions on Image Processing'에 11월 1일 자로 온라인 게재됐다. (논문명 : Defending Person Detection Against Adversarial Patch Attack by using Universal Defensive Frame).
연구팀은 문제 해결을 위해 적대적 공격의 원리를 역으로 이용해, 학습된 네트워크에 접근하지 않으면서도 입력단에서 방어할 수 있는 방어 프레임 기술을 고안했다.
연구팀의 방어 기술은 적대적 공격과 정반대로 물체검출 시 딥러닝 모델이 옳은 예측 결과를 내리도록 방어 프레임을 만드는 것이다. 이러한 방어 프레임은 마치 창과 방패의 싸움처럼 적대적 패턴과 함께 경쟁적으로 학습되며, 해당 과정을 반복해 최종적으로 모든 적대적 패턴 공격에 대해 높은 방어성능을 지니도록 최적화된다.
연구팀은 입력 이미지 외부에 덧붙이는 방어 프레임을 변화시킴으로써 손쉽게 방어성능을 조절할 수 있음을 확인했고, 개발된 방어 프레임은 인리아(INRIA) 검출 벤치마크 데이터셋에서 기존 방어 알고리즘 대비 평균 31.6% 정확도가 향상하는 성과를 거뒀다.
연구팀이 개발한 방어 프레임은 실시간 물체 탐지 시, 모델의 재학습 없이 적대적 패턴 공격을 방어할 수 있으므로 예측 시간 및 비용 절감을 크게 이룰 수 있을 것으로 기대된다.
연구팀은 나아가 이번 연구에서 개발된 방어 프레임을 물리적으로 직접 구현시켜서, 물리적 환경에 자연스레 놓여있는 적대적 패턴 공격과 마찬가지로 좀 더 접근성 있는 방어 방법으로도 활발히 응용될 수 있음을 제시하였다.
노용만 교수는 "국방 및 보안 분야에서 인공지능이 활용되기 위해서 아직 인공지능의 완전성을 높이는 많은 연구가 필요한데, 이번에 개발된 방어 기술은 이 분야들에서 인공지능 모델을 적용 시 실용적인 적대적 방어를 제시함에 의의가 있을 것ˮ이라며 "이 기술은 국방 감시정찰, 보안, 자율주행 분야에도 적용될 수 있을 것이다ˮ라고 말했다.
한편 이번 연구는 방위사업청과 국방과학연구소의 지원으로 한국과학기술원 미래국방 인공지능 특화연구센터에서 수행됐다.
유회준 교수, 인공지능 얼굴인식 시스템 K-EYE 개발
우리 대학 전기및전자공학과 유회준 교수 연구팀이 딥러닝 알고리즘을 세계 최소 전력으로 구현하는 인공지능 반도체 칩 CNNP를 개발했다. 그리고 이를 내장한 얼굴인식 시스템 K-Eye 시리즈를 개발했다.
연구팀이 개발한 K-Eye 시리즈는 웨어러블 디바이스와 동글 타입 2가지로 구성된다. 웨어러블 타입인 K-Eye는 블루투스로 스마트폰과 연동 가능하다.
봉경렬 박사과정이 주도하고 ㈜유엑스팩토리(대표 박준영)과 공동으로 개발한 이번 연구는 지난 2월 미국에서 열린 국제고체회로설계학회(ISSCC)에서 세계 최저전력 CNN칩으로 발표돼 주목을 받았다.
최근 글로벌 IT 기업들이 알파고를 비롯한 인공지능 관련 기술들을 경쟁적으로 발표하고 있다. 그러나 대부분은 소프트웨어 기술이라 속도가 느리고 모바일 환경에서는 구현이 어렵다는 한계가 있다.
따라서 이를 고속 및 저전력으로 구동하기 위해 인공지능 반도체 칩 개발이 필수적이다.
연구팀의 K-Eye 시리즈는 1mW 내외의 적은 전력만으로도 항상 얼굴 인식을 수행하는 상태를 유지하면서 사람의 얼굴을 먼저 알아보고 반응할 수 있다는 특징을 갖는다.
K-Eye의 핵심 기술인 얼웨이즈 온(Always-On) 이미지 센서와 CNNP라는 얼굴 인식 처리 칩이 있었기 때문에 위와 같은 세계 최저전력 기술이 가능했다.
첫 번째 칩인 얼웨이즈 온(Always-On) 이미지 센서는 얼굴이 있는지 없는지 스스로 판단할 수 있어 얼굴 인식이 될 때에만 작동하게 해 대기 전력을 대폭 낮출 수 있다.
얼굴 검출 이미지 센서는 아날로그 프로세싱으로 디지털 프로세싱을 제어해 센서 자체의 출력 소모를 줄였다. 픽셀과 결합된 아날로그 프로세서는 배경 부분과 얼굴 부분을 구분하는 역할을 하고 디지털 프로세서는 선택된 일부 영역에서만 얼굴 검출을 수행하면 돼 효율적인 작업이 가능하다.
두 번째 칩인 CNNP는 딥러닝을 회로, 구조, 알고리즘 전반에 도입하고 재해석을 진행해 최저 수준의 전력을 구현하는 역할을 했다.
특히 CNNP칩은 3가지의 핵심 기술을 사용했는데 ▲알파고 인공지능 알고리즘에서 사용하는 2차원 계산을 1차원 계산으로 바꿔 고속 저전력화 ▲분산형으로 배치된 칩 내 메모리가 가로방향 뿐 아니라 세로방향도 읽어낼 수 있는 특수 저전력 분산 메모리로의 설계 ▲1024개의 곱셈기와 덧셈기가 동시에 구동돼 막강한 계산력을 가지면서 외부 통신망을 거치지 않고 직접 계산 결과를 주고받을 수 있게 한 점이다.
CNNP는 97%의 인식률을 가지면서도 알파고에 사용된 GPU에 비해 5천분의 1정도의 낮은 전력인 0.6mW만을 소모한다.
K-Eye를 목에 건 사용자는 앞에서 다가오는 상대방의 얼굴이 화면에 떠오르면 미리 저장된 정보와 실시간으로 찍힌 사진을 비교해 상대방의 이름 등 정보를 자연스럽게 확인할 수 있다.
동글 타입인 K-EyeQ는 스마트폰에 장착해 이용할 수 있는데 사용자를 알아보고 반응하는 기능을 한다. 미리 기억시킨 사용자의 얼굴이 화면을 향하기만 하면 스마트폰 화면이 저절로 켜지면서 그와 관련된 정보를 제공한다.
또한 입력된 얼굴이 사진인지 실제 사람인지도 구분할 수 있어 사용자의 얼굴 대신 사진을 보여주면 스마트폰은 반응하지 않는다.
유 교수는 “인공지능 반도체 프로세서가 4차 산업혁명시대를 주도할 것으로 기대된다”며 “이번 인공지능 칩과 인식기의 개발로 인해 세계시장에서 한국이 인공지능 산업의 주도권을 갖길 기대한다”고 말했다.
□ 사진 설명.
사진1. K-EYE 사진
사진2. K-EYEQ 사진
사진3. CNNP 칩 사진
우운택 교수, 스마트 관광 증강현실 어플리케이션 개발
〈 우 운 택 교수 〉
우리 대학 문화기술대학원 우운택 교수 연구팀이 스마트 관광 지원을 위한 증강 및 가상현실 어플리케이션을 개발했다.
‘케이 컬처 타임머신(K-Culture Time Machine)’ 어플리케이션은 창덕궁을 대상으로 한 시범 서비스로 iOS 앱스토어에 5월 23일 공개됐다.
개발된 케이 컬처 타임머신은 웨어러블 360도 비디오를 통해 문화유산이나 유적지에 대한 시공간을 넘는 원격 체험을 제공한다.
사용자는 VR기기에 스마트폰을 장착해 제공되는 360도 비디오로 문화 유적지를 원격으로 체험하고 해당 문화유산 및 연관관계가 있는 인물, 장소, 사건 등에 대한 정보를 확인할 수 있다. 또한 소실된 문화유산에 대한 3차원 디지털 복원도 체험할 수 있다.
웨어러블 기기 활용 없이도 모바일 모드를 통해 사용자 주변 유적지 확인, 카메라에 인식된 문화유산을 인식하고 관련된 정보와 콘텐츠를 제공하는 증강현실 기반의 문화유산 가이드가 가능하다.
사용자는 자신의 위치에서 창덕궁 돈화문을 시작으로 인정문, 인정전, 희정당에 이르는 창덕궁 내부를 이동하며 360도 파노라마 이미지나 비디오를 통해 현장을 가상체험 할 수 있다.
현재는 존재하지 않는 인정전 동쪽의 궐내 곽사 지역에는 3D모델을 통한 승정원의 가상 복원을 확인할 수 있다.
위 기능은 웨어러블 기기 없이 스마트폰 상에서도 체험 가능하며 개발 중인 증강현실 기능이 완성되면 현장에서 활용 가능한 수준의 어플리케이션이 될 것으로 기대된다.
우 교수 연구팀은 문화유산 데이터베이스와 증강-가상현실 콘텐츠의 표준화된 메타데이터를 구축하고 이를 적용했다. 이를 활용해 일시적으로 개발 후 소비되는 기존 어플리케이션과는 달리 추가적인 콘텐츠 생성 및 추가가 가능하다.
우 교수는 “증강현실 콘텐츠의 상호 활용성과 재활용성을 증진해 스마트관광 분야의 새로운 시장을 선점할 수 있을 것이다”며 “콘텐츠 개발 비용 절감과 증강현실 콘텐츠 생태계 활성화를 가능하게 하는 다양한 부가 효과도 기대한다”고 말했다.
이번 연구는 ㈜포스트미디어(대표 홍승모)와 문화체육관광부 CT R&D 사업과의 공동 수행을 통해 이뤄졌으며, 관련 연구 성과는 올 7월 캐나다에서 진행되는 HCII 2017 학회를 통해 발표될 예정이다.
□ 그림 설명
그림1. 360 VR 서비스 개념도
그림2. K-Culture Time Machine의 모바일 증강현실 기능 구동 화면
그림3. K-Culture Time Machine의 360도 파노라마 이미지-비디오 기능 화면
자랑스런 동문상에 정칠희 삼성전자 종합기술원 사장 등 6인 선정
우리 대학 총동문회(회장 고정식)는 2016년 ‘KAIST 자랑스런 동문상’ 에 정칠희 삼성전자 종합기술원 사장, 백원필 한국원자력연구원 연구개발부원장, 박한오 ㈜바이오니아 대표이사, 정현호 ㈜메디톡스 대표이사, 김후식 ㈜뷰웍스 대표이사, 김철환 (주)오렌지파워 대표이사 등 6명을 선정했다. 시상식은 지난 14일(토) 오후 서울 소공동 롯데호텔에서 열리는 2017년 KAIST 총동문회 신년교례회에서 열렸다.
‘KAIST 자랑스런 동문상’ 은 한 해 동안 국가와 사회발전에 공헌하고 모교의 명예를 빛낸 동문에게 주는 상으로 KAIST 총동문회가 1992년부터 시상해 왔다.
정칠희(물리학과 석사 79학번) 삼성전자 종합기술원 사장은 삼성전자 반도체연구소장 재직시 세계적 수준의 시스템 반도체 기술 개발 및 메모리 디바이스 기술개발을 주도했다. 정 사장은 최고 수준의 효율과 색 순도를 갖는 카드뮴 없는 친환경 퀀텀닷(Quantum Dot) 소재를 개발하여 세계 최초 퀀텀닷 TV를 양산하는 등 미래 기술을 대비한 첨단 재료 및 디바이스 개발에 주력하고 있다.
백원필(원자력및양자공학과 석사 82학번, 박사 87학번) 한국원자력연구원 연구개발부원장은 2001년부터 한국원자력연구원에 재직하면서 국내 원자력안전기술을 세계최고 수준으로 발전시켜 국내 원자력안전연구 그룹이 세계적인 리더 그룹으로 진입하는데 결정정인 기여를 했다. 특히 세계적 원전 안전검증시설인‘아틀라스(ATLAS)’를 개발·구축 운영하여 원전 안전기술 확보 및 아랍에미리트연합(UAE) 원전 수출 등에 크게 기여했다.
박한오(화학과 석사 84학번, 박사 87학번) ㈜바이오니아 대표이사는 국내 바이오벤처 1호 기업을 창업하여 20여년에 걸쳐 유전자 연구용 시약과 진단 키트 및 첨단장비 수백 종을 개발함으로써 우리나라의 유전자기술이 세계정상수준이 될 수 있는 핵심 인프라를 구축했다. 기존 신약 개발의 문제점을 극복한 혁신적인 “새미알엔에이(SAMiRNA™, Self-Assembled-Micelle-inhibitory–RNA)” 기술 개발로 난치병 치료에 대한 새로운 해결책을 제시하며 글로벌 제약사 및 연구그룹들과 공동연구를 통한 각종 난치병 신약후보물질 공동개발 및 라이선싱을 성공적으로 이끌었다.
정현호(생명과학과 석사 86학번, 박사 88학번) ㈜메디톡스 대표이사는 2000년 바이오제약기업 ㈜메디톡스를 설립하여 미생물 보툴리눔 독소제제에 대한 연구개발로 국내 최초이자 세계에서 4번째로 상용화에 성공했다. 세계 최초로 비동물성 액상형 보툴리눔 독소제제를 개발하여 다양한 신경질환을 치료할 수 있는 보툴리눔 제제를 국산화하였으며, 수입 대체효과 및 국민보건의료 향상에 기여하고 있다.
김후식(물리학과 석사 95학번) ㈜뷰웍스 대표이사는 필름을 사용하여 엑스레이 영상을 촬영하던 기존의 아날로그 방식으로부터 디지털 전자파일 형태로 엑스선 영상을 제공하는 디지털 엑스레이의 상용화에 크게 기여했다. 특히 디지털 엑스선 영상의 품질을 좌우하는 광학계 및 영상시스템 설계를 주도하고 관련 기술기반을 직접 확립함으로써 인류 건강증진 및 국가산업발전에 기여하고 있다.
김철환(생명화학공학과 학사 87학번, 석사 91학번, 박사 93학번) ㈜오렌지파워 대표이사/(재)카이트 창업가 재단 이사장은 2005년 ㈜바이오제닉스 및 ㈜이미지앤머터리얼스를 창업했다. 회사 매각 자금 중 100억 원을 창업가 육성을 위해 카이트 창업가 재단을 설립하여 후배 창업가를 지원·육성하는 엔젤투자활동을 지속하고 있다. 또한 이차전지 열 문제 해결을 위한 ㈜오렌지파워를 2012년 창업하여 캐나다 하이드로 퀘백, 영국 넥시온, 독일 폭스바겐, 미국 테슬라와 같은 글로벌 기업들과의 협력관계를 구축하는 등 국가산업발전에 기여하고 있다.
디지털 이미지 위조, 변조 식별 기술 개발
이 흥 규 교수
우리 대학 전산학부 이흥규 교수 연구팀이 육안으로 판단이 어려운 디지털 이미지의 위조 및 변조를 식별할 수 있는 웹 서비스를 개발했다.
이 서비스는 국내에서 처음 시행되는 디지털 이미지 조작탐지 웹 서비스이며, 11일부터 http://forensic.kaist.ac.kr 도메인을 통해 시범 운영된다.
이번 연구는 이미지의 무결성 확인이 필요한 법원, 의료, 군사 등 다양한 분야에서 활용될 전망이다. 논문 사진, 의료 영상, 법적 증거자료 등에서 조작으로 인해 발생할 사회적 문제를 예방할 수 있을 것으로 기대된다.
기존의 이미지 조작 식별 서비스는 포맷 기반의 조작 탐지 방식에 근거해 위조 가능성 여부만을 알 수 있는 수준이었다. 포토샵 등 이미지 수정 프로그램의 다양한 수정 방식을 현재의 탐지 기술로 모두 잡아내기엔 어려움이 있었다.
연구팀은 국제 저명 논문 및 연구 결과들을 기반으로 해당 서비스를 구축했다. 복사-붙여넣기, 리터칭, 전체 변형, 스플라이싱 등 다양한 조작 방식을 식별하기 위해 탐지 방식 역시 여러 방향으로 구축했다.
연구팀은 ▲이미지 픽셀의 통계적 특성의 변화를 탐지하는 픽셀 기반 방식▲이미지 손실 압축 기업에 의한 무결성 검증을 통한 포맷 기반 방식▲카메라의 촬영 프로세스가 남기는 특성에 기반한 카메라 기반 방식을 이용해 조작을 탐지했다.
디지털 이미지에 가해지는 변형은 눈에 보이지 않아도 이미지 내부의 통계적 특성을 변화시킨다. 또한 변형의 종류에 따라 통계적 특성이 다르게 나타나는데 위의 방식들을 통해 조작의 영역 및 방식까지 측정이 가능해진다.
이번 웹 서비스는 논문 발표 수준에서만 진행되던 기술들을 다년간의 연구개발을 통해 일반에 제공함으로써 상용화의 발판이 될 것으로 기대된다. 연구팀은 개발된 기술 중 상당수는 이미 상용화 가능한 수준의 탐지율 및 기술 신뢰도를 보인다고 말했다.
이흥규 교수는 “전문 이미지 편집 툴의 발전에 비해 위변조 탐지 기술은 그 중요도에 비해 관심과 연구가 많이 부족하다”며 “다양한 위, 변조 탐지의 과학적 기법들이 실용화가 가능하도록 연구하겠다”고 말했다.
이번 연구는 미래창조과학부와 한국연구재단이 추진하는 중견연구자지원사업의 지원으로 수행됐다.
□ 사진 설명
그림 1. 2008년 이란의 미사일 발사 사진 조작 탐지 결과(복사-붙여넣기)
(左 : 원본, 中 : 이란에서 발표한 조작 사진, 右 : 연구팀이 탐지한 조작 영역이 픽셀로 표시된 화면)
그림 2. 탐지 기법 중 ‘색상 변환 탐지 기법’에 의해서 탐지된 결과 (左 : 원본, 中 : 색상 변형 조작 사진 右 : 조작 영역이 색깔로 표시된 화면)
그림 3. 복사-붙여넣기한 사진 조작 탐지 결과 (左 : 원본, 中 : 조작 사진, 右 : 조작 영역이 표시된 화면)
슈퍼렌즈로 초고해상도 2차원 실시간 영상획득 성공
우리 학교 물리학과 박용근·조용훈 교수 공동연구팀은 빛의 회절한계 때문에 광학렌즈로는 볼 수 없었던 100nm(나노미터, 10억분의 1미터) 크기 이미지를 2차원으로 실시간 관찰하는데 성공했다.
이번 연구는 지난해 4월 박 교수 연구팀이 페인트 스프레이를 이용해 기존 광학렌즈보다 3배가량 해상도가 뛰어난 ‘슈퍼렌즈’를 세계 최초로 개발해 초점을 형성한 기술의 후속 연구로 향후 초정밀 반도체 공정이나 세포 내 구조 관찰 등에 응용 가능하다.
빛의 굴절을 이용하는 광학렌즈는 빛의 파장보다 작은 초점을 만들 수 없는 특성(회절한계) 때문에 가시광선 영역에서 200~300nm 이하 크기의 물체를 관찰할 수 없다.
연구팀은 빛의 산란 때문에 소멸하는 고주파 근접장을 산란 물질이 밀집한 나노입자로 구성된 페인트 스프레이를 뿌려 미세한 크기의 이미지 정보를 얻어냈다.
이후 빛을 시간 가역성을 이용해 최초의 산란 형태를 계산해 복구함으로써 회절한계를 넘는 나노 이미지를 구현했다. 복잡한 궤적으로 물체를 투사할 때 피사체의 특정위치에서 피사체가 지나온 궤적에 대해 시간을 되돌리는 방식으로 계산하면 피사체의 처음 위치를 알 수 있는 원리다.
이번 연구를 주도한 박용근 교수는 “개발된 기술은 광학 측정과 제어가 요구되는 모든 분야에서 핵심 기반기술로서 사용될 수 있다”며 “기존의 전자현미경은 세포가 파괴되는 단점이 있었지만 이 기술을 이용하면 세포파괴 없이 초고해상도로 관찰할 수 있다”고 말했다.
연구결과는 물리학분야에서 귄위 있는 국제학술지인 ‘피지컬 리뷰 레터스(Physical Review Letters)’ 9일자 온라인판에 게재됐다.
그림1. 관찰영상
그림2. 산란을 통한 나노 이미징의 원리