-
휴대폰 사진 단 몇 장으로 구현한 생생한 3D 가상 환경 속으로
기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다.
기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한계가 있었다. 이러한 제약 때문에 실제 환경에서의 적용이 어렵고, 대중적 활용에도 제동이 걸려왔다.
연구팀은 이러한 문제를 해결하기 위해, 단 2~3장의 일반 사진만으로도 3차원 장면과 카메라의 방향을 동시에 추정해 정확한 3D 모델을 구축하는 기술을 개발했다. 별도의 추가 학습이나 정밀한 보정 과정 없이도 실제 환경에서 신속하고 정밀한 복원이 가능해 효율성과 범용성이 매우 높은 기술로 평가받고 있다.
핵심 기술인 SHARE는 영상 속에서 사물의 형태(Shape)와 카메라의 시선 방향(Ray)을 동시에 추정하는 새로운 방식을 도입했다.
기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면, SHARE는 영상 자체에서 공간 정보를 스스로 찾아내어 카메라와 구조를 추론한다. 이를 통해 서로 다른 위치에서 촬영된 다중 영상을 하나의 공통된 공간으로 정렬하고, 형상 왜곡 없이 안정적인 3D 복원을 실현했다.
윤성의 교수는 “SHARE 기술은 3D 복원의 진입 장벽을 획기적으로 낮춘 기술로, 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 밝혔다.
이번 연구는 나영주 박사과정, 김태연 석사과정 학생이 공동 제1저자로 참여했으며, 연구 결과는 국제 이미지 처리 학회(IEEE International Conference on Image Processing, ICIP 2025)에서 9월 17일 발표되어 ‘최고 학생논문상(Best Student Paper Award)’을 수상했다.
이 상은 올해 채택된 643편의 논문 중 단 한 편에게만 수여되는 영예(수상률 0.16%)로, KAIST 연구진의 우수한 연구역량을 다시 한 번 입증했다.
*논문명 : Pose-free 3D Gaussian Splatting via Shape-Ray Estimation, DOI https://arxiv.org/abs/2505.22978
*수상정보: https://www.linkedin.com/posts/ieeeicip_congratulations-to-the-icip-2025-best-activity-7374146976449335297-6hXz
이번 성과는 과학기술정보통신부 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 과제지원으로 수행되었다.
2025.11.06
조회수 955
-
‘나빌레라’처럼 춤추는 아바타...AI가 움직임 이해하고 그려
AI가 단순히 ‘그럴듯하게 그리는 수준’을 넘어, 옷이 왜 흔들리고 주름이 생기는지까지 이해하는 시대가 열렸다. 우리 대학 연구진은 3차원 공간에서의 움직임과 상호작용을 실제 물리 법칙처럼 학습하는 새로운 생성형 AI를 개발했다. 기존 2D 기반 영상 AI의 한계를 뛰어넘은 이번 기술은 영화, 메타버스, 게임 속 아바타의 현실감을 높이고 모션캡처나 3D 그래픽 수작업을 크게 줄일 수 있을 것으로 기대를 모은다.
우리 대학은 전산학부 김태균 교수 연구팀이 기존 2D 픽셀 기반 영상 생성 기술의 한계를 극복한 공간·물리 기반 생성형 AI 모델 ‘MPMAvatar’를 개발했다고 22일 밝혔다.
연구팀은 기존 2D 기술의 문제를 해결하기 위해, 가우시안 스플래팅(Gaussian Splatting)으로 다중 시점 영상을 3차원 공간으로 재구성하고, 여기에 물리 시뮬레이션 기법(Material Point Method, MPM)을 결합한 새로운 방식을 제안했다.
즉, 여러 시점에서 촬영한 영상을 입체적으로 재구성하고, 그 안에서 물체가 실제처럼 움직이며 상호작용하도록 물리 법칙을 AI가 스스로 학습하게 한 것이다.
이를 통해 물체의 재질·형태·외부 힘에 따른 움직임을 계산하고, 그 결과를 실제 영상과 비교해 AI가 물리 법칙을 스스로 학습할 수 있도록 했다.
연구팀은 3차원 공간을 점(포인트) 단위로 표현하고, 각 점에 가우시안과 MPM을 함께 적용해 물리적으로 자연스러운 움직임과 사실적인 영상 렌더링을 동시에 구현했다.
즉, 3D 공간을 수많은 작은 점들로 쪼개어 각 점이 실제 물체처럼 움직이고 변형되도록 만들어, 현실과 거의 구분이 안 될 만큼 자연스러운 영상을 구현한 것이다.
특히 옷처럼 얇고 복잡한 물체의 상호작용을 정밀하게 표현하기 위해, 물체의 표면(메쉬)과 입자 단위 구조(포인트)를 함께 계산하고, 3차원 공간에서 물체의 움직임과 변형을 물리 법칙에 따라 계산하는 MPM(Material Point Method) 기법을 활용했다.
또한, 옷이나 물체가 움직이며 서로 부딪히는 장면을 사실적으로 재현하기 위해 새로운 충돌 처리(collision handling) 기술을 개발했다.
이 기술을 적용한 생성형 AI 모델 MPMAvatar는 느슨한 옷을 입은 사람의 움직임과 상호작용을 사실적으로 재현하고, AI가 학습 과정에서 본 적 없는 데이터도 스스로 추론해 처리하는 ‘제로샷(Zero-shot)’생성에도 성공했다.
제안된 기법은 강체, 변형 가능한 물체, 유체 등 다양한 물리적 특성을 표현할 수 있어, 아바타뿐만 아니라 일반적인 복잡한 장면 생성에 활용될 수 있다.
김태균 교수는 “이번 기술은 AI가 단순히 그림을 그리는 것을 넘어, 눈앞의 세계가 ‘왜’ 그렇게 보이는지까지 이해하도록 만든 것으로 물리 법칙을 이해하고 예측하는 ‘Physical AI’의 가능성을 보여준 연구로 이는 AGI(범용 인공지능)로 가는 중요한 전환점”이라고 설명했다. 이어 “가상 프로덕션, 영화, 숏폼, 광고 등 실감형 콘텐츠 산업 전반에 실질적으로 적용돼 큰 변화를 만들어낼 것”이라고 기대를 밝혔다.
현재 연구팀은 이 기술을 확장해, 사용자의 텍스트 입력만으로도 물리적으로 일관된 3D 동영상을 생성할 수 있는 모델 개발을 진행 중이다.
이번 연구는 KAIST 김재철AI대학원 이창민 석사과정 학생이 제1저자로, KAIST 전산학부 이지현 박사과정 학생이 공저자로 참여하였고, 연구 결과는 AI 분야 최고 권위 국제학술대회인 NeurIPS 12월 2일에 발표하며, 프로그램 코드는 모두 공개될 예정이다.
*논문: C. Lee, J. Lee, T-K. Kim, MPMAvatar: Learning 3D Gaussian Avatars with Accurate and Robust Physics-Based Dynamics,Proc. of Thirty-NinthAnnual Conf. on Neural Information Processing Systems (NeurIPS), San Diego, US, 2025
arXiv버전: https://arxiv.org/abs/2510.01619
*관련 프로젝트 사이트: https://kaistchangmin.github.io/MPMAvatar/
*AI가 그려낸 나빌레라처럼 춤추는 관련 동영상 링크: https://www.youtube.com/shorts/ZE2KoRvUF5c, https://youtu.be/ytrKDNqACqM
한편, 이 연구는 과학기술정보통신부와 정보통신기획평가원(IITP)이 지원하는 인간지향적 차세대 도전형 범용AI기술 개발사업(RS-2025-25443318)과 생성AI 선도인재양성 사업의(RS-2025-25441313) 지원을 받아 수행되었다.
2025.10.22
조회수 2094
-
빛 0.02초로 3,000 ℃구현...수소 생산 효율 6배 높혔다
요즘 수소 같은 청정에너지를 더 효율적이고 저렴하게 만들기 위해, 적은 전력으로 성능이 뛰어난 촉매 재료를 빠르게 합성하는 기술이 중요한 연구 주제로 떠오르고 있다. 우리 대학 연구진은 빛을 단 0.02초 비추어 3,000 ℃의 초고온을 구현하고 수소 생산 촉매를 효율적으로 제작할 수 있는 플랫폼 기술을 개발했다. 이 덕분에 에너지는 1/1,000만 쓰고도, 수소 생산 효율은 최대 6배 높아졌다. 이번 성과는 미래 청정에너지 기술의 상용화를 앞당길 핵심 돌파구로 평가된다.
우리 대학은 10월 20일, 신소재공학과 김일두 교수 연구팀과 전기및전자공학부 최성율 교수 연구팀이 강력한 빛을 짧게 쬐어주는 것만으로 고성능 나노 신소재를 합성하는 ‘직접접촉 광열처리(Direct-contact photothermal annealing)’ 합성 플랫폼을 개발했다고 밝혔다.
연구팀은 빛을 아주 짧게(0.02초) 비추는 것만으로 순간적으로 3,000 ℃의 초고온을 만들어내는 촉매 합성 기술을 개발했다. 이 빛의 열로, 단단하고 잘 반응하지 않는 ‘나노다이아몬드(nanodiamond)’를 전기가 잘 통하고 촉매로 쓰기 좋은 고성능 탄소 소재인 ‘탄소 나노어니언(Carbon Nanoonion)’이라는 새로운 소재로 바꾸는 데 성공했다. 이를 통해 기존 열선 가열 기반의 열처리 공정보다 에너지 소비를 1/1,000 수준으로 줄이면서, 공정 속도는 수백 배 이상 단축했다.
더 놀라운 점은, 이 과정에서 전환된 탄소 나노어니언 표면에 금속 원자를 하나하나 달라붙게 만들어 촉매 기능까지 동시에 구현했다는 것이다. 즉 ‘빛 비추기’로 구조를 바꾸고 그 재료에 기능까지 부여하는 일석이조의 촉매 플랫폼 기술을 개발했다.
탄소 나노어니언은 탄소 원자가 양파처럼 여러 겹으로 쌓인 초미세 구형태의 소재로, 전기 전도도와 내화학성이 뛰어나 촉매를 지지하는데 적합하다.
하지만 기존에는 탄소 나노어니언을 합성한 뒤 다시 촉매를 부착하는 복잡한 공정을 거쳐야 했고, 열선으로 가열하는 기존 열처리 방식은 에너지 소모가 크고 시간이 오래 걸려 상용화에 어려움이 있었다.
연구팀은 이 문제를 해결하기 위해 빛 에너지를 열로 전환하는 ‘광열효과(Photothermal effect)’를 이용했다. 탄소 나노어니언의 전구체인 ‘나노다이아몬드’에 빛을 잘 흡수하는 검은색 ‘카본블랙’을 섞은 뒤, 제논 램프로 강한 빛을 터뜨리는 방식을 고안했다.
그 결과 단 0.02초 만에 나노다이아몬드가 탄소 나노어니언으로 전환된다. 분자동역학 시뮬레이션에서도 이 과정이 물리적으로 충분히 가능한 것으로 확인됐다.
더 나아가, 이 플랫폼은 탄소 나노어니언 합성과 단일원자 촉매 부착을 한 번에 처리할 수 있다는 점에서 혁신적이다. 백금과 같은 금속 전구체를 함께 넣으면 금속들이 원자 단위로 분해되는 ‘단일원자 촉매’로 갓 생성된 탄소 나노어니언 표면에 즉시 달라붙는다.
이후 빠른 냉각 과정에서 원자들이 뭉치지 않아, 소재 합성과 촉매 기능화가 완벽히 통합된 단일 공정으로 완성된다. 연구팀은 이 기술을 활용해 백금(Pt), 코발트(Co), 니켈(Ni) 등 8종의 고밀도 단일원자 촉매를 성공적으로 합성했다.
이번에 제작된 ‘백금 단일원자 촉매–탄소 나노어니언’은 기존보다 6배 효율적으로 수소를 만들어내면서도 훨씬 적은 양의 고가 금속으로도 높은 효율을 낼 수 있음을 입증한 결과다.
김일두 교수는 “강한 빛을 0.02초도 안 되는 짧은 시간 동안 조사해 3,000 ℃까지 상승시키는 직접접촉 광열처리 기술을 최초로 구현했다”며 “기존 열처리 대비 에너지 소비를 1,000배 이상 줄인 초고속 합성–단일원자 촉매 기능화 통합 공정은 수소 에너지, 가스 센서, 환경 촉매 등 다양한 응용 분야의 상용화를 앞당길 것으로 기대된다”고 밝혔다.
이번 연구는 전도경 박사과정(KAIST 신소재공학과), 신하민 박사(KAIST 신소재, 현 ETH Zurich 박사후연구원), 차준회 박사(KAIST 전기및전자공학부, 현 SK hynix 연구원)가 공동 제1저자로 참여했으며, 최성율 교수(전기및전자공학부)와 김일두 교수(신소재공학과)가 교신저자로 참여했다.
연구 결과는 나노 및 화학 분야의 세계적 학술지인 미국화학회(American Chemical Society, ACS) 발간 『ACS Nano』 9월호 속표지(Supplementary Cover) 논문으로 게재되었다.
※ 논문명: Photothermal Annealing-Enabled Millisecond Synthesis of Carbon Nanoonions and Simultaneous Single-Atom Functionalization, DOI: 10.1021/acsnano.5c11229
본 연구는 한국연구재단 과학기술정보통신부 글로벌 R&D 기반구축사업, 선도연구센터지원사업, 나노종합기술원 반도체–이차전지 인터페이싱 플랫폼 기술개발 사업의 지원을 받아 수행되었다.
2025.10.20
조회수 1508
-
집에서 편안히 누워 정확하게 심전도 실시간 측정
우리 대학 연구진이 병원에 가지 않고도 옷을 입은 채 침대에 눕기만 하면 심전도(Electrocardiogram, ECG)와 심박변이(Heart Rate Variability, HRV)를 실시간으로 측정할 수 있는 기술을 개발했다. 이번 기술은 원격 의료와 연계해 일상적인 심장 건강 모니터링 플랫폼으로 발전할 수 있으며, 나아가 수면·스트레스 분석 등 다양한 바이오 헬스케어 분야로 확장되어 환자 맞춤형 예방과 조기 진단에 기여할 것으로 기대된다.
우리 대학은 바이오및뇌공학과 김철 교수 연구팀이 ‘침대형 심장 모니터링 온디바이스 시스템’을 개발했다고 19일 밝혔다.
연구팀은 전자회로와 전극을 하나로 통합한 유연성 기판 센서를 제작해 정밀도를 높였으며, 온디바이스 신호처리를 통해 신호-잡음 분리, 심장 박동 신호(R-피크) 검출, 심박변이 분석을 실시간으로 수행할 수 있는 통합 시스템을 구현했다.
기존 심전도 측정은 병원을 방문해 옷을 벗고 피부에 습식 전극을 부착해야 하는 불편이 있었다. 이 때문에 장기적인 모니터링이 어렵고, 특히 고령자나 만성질환 환자는 일상적으로 활용하기 쉽지 않았다. 비접촉 방식은 외부 잡음에 취약하다는 기술적 한계도 있었다.
연구팀은 이러한 문제를 해결하기 위해, 외부 잡음을 차단하고(능동 차폐), 인체의 미세한 전류 변화를 안정적으로 잡아내는 회로(오른다리 구동회로)를 적용했다. 또 심장 박동 신호에서 중요한 부분만 뽑아내는 수학적 변환 기법(웨이블릿 변환)과, 심장의 전기적 박동 순간(R-peak)을 정확히 짚어내는 계산법(피크 검출 알고리즘)을 온디바이스 신호처리 기법으로 구현해 신호를 정밀하게 실시간으로 분석할 수 있도록 했다.
그 결과 사용자는 옷을 입은 채 등을 대고 누워도 안정적이고 정확한 심전도 신호를 얻을 수 있다.
이번 연구는 병원뿐 아니라 가정에서도 손쉽게 활용할 수 있어 만성 심혈관 질환 관리와 고령자 건강 지원에 새로운 가능성을 제시한다.
김철 교수는 “잡음 환경에서도 실시간으로 신호를 추출할 수 있는 이번 시스템은 일상에서 심장 건강을 손쉽게 확인하는 데 활용될 수 있다”며, “향후 다양한 생체 신호 측정을 추가해 수면 건강 관리의 초석이 될 것”이라고 말했다.
바이오및뇌공학과 김민재 박사과정과 프렘라위 티라윗차양군(Premravee Teeravichayangoon) 연구원이 공동 제1 저자로 참여한 이번 논문은 국제 학술지 ‘바이오센서스 앤 바이오일렉트로닉스(Biosensors and Bioelectronics)’에 2025년 8월 9일 자로 온라인판에 게재됐다.
※ 논문명 : A homecare in-bed hardware system for precise real-time ECG and HRV monitoring with layered clothing. DOI: https://doi.org/10.1016/j.bios.2025.117838
※ 저자 정보 : 김민재(KAIST 바이오및뇌공학과, 제1 저자), Premravee Teeravichayangoon(KAIST 바이오및뇌공학과, 제1 저자), 김철(KAIST 바이오및뇌공학과, 교신 저자)
한편, 이번 연구는 한국연구재단 기초연구실 및 바이오의료기술개발사업과 카이스트-세라젬 미래헬스케어 연구센터의 지원을 받아 수행됐다.
2025.09.19
조회수 1213
-
60% 이상 챗GPT 추론 성능 향상할 NPU 핵심기술 개발
오픈AI 챗GPT4, 구글 Gemnini 2.5 등 최신 생성형AI 모델들은 높은 메모리 대역폭(Bandwidth) 뿐만 아니라 많은 메모리 용량(Capacity)를 필요로 한다. 마이크로소프트, 구글 등 생성형AI 클라우드 운영 기업들이 엔비디아 GPU를 수십만 장씩 구매하는 이유다. 이런 고성능 AI 인프라 구축의 핵심 난제를 해소할 방안으로, 한국 연구진이 최신 GPU 대비 약 44% 낮은 전력 소모에도 평균 60% 이상 생성형 AI 모델의 추론 성능을 향상할 NPU(신경망처리장치)* 핵심 기술을 개발하는데 성공했다.
*NPU(Neural Processing Unit): 인공신경망(Neural Network)을 빠르게 처리하기 위해 만든 AI 전용 반도체 칩
우리 대학 전산학부 박종세 교수 연구팀과 (주)하이퍼엑셀(전기및전자공학부 김주영 교수 창업기업)이 연구 협력을 통해, 챗GPT와 같은 생성형AI 클라우드에 특화된 고성능·저전력의 NPU(신경망처리장치) 핵심기술을 개발했다고 4일 밝혔다.
연구팀이 제안한 기술은 컴퓨터 아키텍처 분야에서 최고 권위를 자랑하는 국제 학회인 ‘2025 국제 컴퓨터구조 심포지엄(International Symposium on Computer Architecture, ISCA 2025)’에 채택됐다.
이번 연구의 핵심은 추론 과정에서 경량화를 통해 정확도 손실을 최소화하면서도 메모리 병목 문제를 해결해 대규모 생성형AI 서비스의 성능을 개선하는 것이다. 이번 연구는 AI인프라의 핵심 구성요소인 AI반도체와 AI시스템SW를 통합 설계했다는 점에서 그 가치를 높게 인정받았다.
기존 GPU 기반 AI 인프라는 높은 메모리 대역폭과 메모리 용량 요구를 충족하기 위해 다수의 GPU 디바이스가 필요한 반면, 이번 기술은 메모리 사용의 대부분을 차지하는 KV 캐시의 양자화*를 통해 적은 수의 NPU 디바이스만으로 동일 수준의 AI 인프라를 구성할 수 있어, 생성형 AI 클라우드 구축 비용을 크게 절감할 수 있다.
*KV 캐시(Key-Value Cache)의 양자화: 생성형 AI 모델을 작동할 때 성능을 높이기 위해 사용하는 일종의 임시 저장 공간에 데이터 크기를 줄이는 것을 의미(32비트로 저장된 수를 4비트로 바꾸면, 데이터 크기는 1/8로 줄어듬)
연구팀은 기존 NPU 아키텍처의 연산 로직을 변경하지 않으면서 메모리 인터페이스와 통합될 수 있도록 설계했다. 이번 하드웨어 아키텍처 기술은 제안된 양자화 알고리즘을 구현할 뿐만 아니라, 제한된 메모리 대역폭 및 용량을 효율적으로 활용하기 위한 페이지 단위 메모리 관리 기법*과 양자화된 KV 캐시에 최적화된 새로운 인코딩 기법 등을 개발했다.
*페이지 단위 메모리 관리 기법: CPU처럼 메모리 주소를 가상화하여 NPU 내부에서 일관된 방식으로 접근할 수 있게 함
또한, 최신 GPU 대비 비용·전력 효율성이 우수한 NPU 기반 AI 클라우드를 구성할 경우, NPU의 고성능, 저전력 특성을 활용해 운영 비용 역시 크게 절감할 수 있을 것으로 기대된다.
박종세 교수는 “이 연구는 (주)하이퍼엑셀과의 공동연구를 통해 생성형AI 추론 경량화 알고리즘에서 그 해법을 찾았고 ‘메모리 문제’를 해결할 수 있는 NPU 핵심기술 개발에 성공했다. 이 기술을 통해 추론의 정확도를 유지하면서 메모리 요구량을 줄이는 경량화 기법과, 이에 최적화된 하드웨어 설계를 결합해 최신 GPU 대비 평균 60% 이상 성능이 향상된 NPU를 구현했다” 고 말했다.
이어 “이 기술은 생성형AI에 특화된 고성능·저전력 인프라 구현 가능성을 입증했으며, AI클라우드 데이터센터뿐 아니라 능동적인 실행형 AI인 ‘에이전틱 AI ’등으로 대표되는 AI 대전환(AX) 환경에서도 핵심 역할이 기대된다”고 강조했다.
이 연구는 김민수 박사과정 학생과 ㈜하이퍼엑셀 홍성민 박사가 공동 제1 저자로 지난 6월 21일부터 6월 25일까지 일본 도쿄에서 열린 ‘2025 국제 컴퓨터구조 심포지엄(ISCA)’에 발표됐다. 국제적 저명학회인 ISCA는 올해는 570편의 논문이 제출됐으며 그중 127편 만이 채택됐다. (채택률 22.7%).
※논문 제목: Oaken: Fast and Efficient LLM Serving with Online-Offline Hybrid KV Cache Quantization
※DOI: https://doi.org/10.1145/3695053.3731019
한편 이번 연구는 한국연구재단 우수신진연구자지원사업, 정보통신기획평가원(IITP), 인공지능반도체대학원지원사업의 지원을 받아 수행됐다.
2025.07.04
조회수 4677
-
뇌처럼 생각·반응하는 반도체 나왔다
뉴랜지스터(Neuransistor)는 ‘뉴런(Neuron) + 트랜지스터(Transistor)’의 합성어로 뇌의 뉴런 특성을 구현하는 트랜지스터라는 의미로 만들어진 새로운 용어이다. 이는 뇌 속 신경세포(뉴런)의 흥분과 억제 반응을 모방하여 시간에 따라 달라지는 정보를 스스로 처리하고 학습할 수 있는 차세대 인공지능 하드웨어의 핵심 반도체 소자다. KAIST 연구진이 뉴랜지스터의 개념을 제시하고 최초로 뉴랜지스터를 개발하는데 성공했다.
우리 대학 신소재공학과 김경민 교수 연구팀이 시간에 따라 변화하는 정보를 효과적으로 처리할 수 있는 액체 상태 기계(Liquid State Machine, 이하 LSM)*의 하드웨어 구현을 가능케 하는 뉴랜지스터 소자 개발에 성공했다.
* 액체상태 기계(LSM): 생물학적 신경망의 동적 특성을 모사해, 시간에 따라 변화하는 입력 데이터를 처리하는 스파이킹 뉴럴 네트워크 모델
현재의 컴퓨터는 동영상과 같이 시간 흐름에 따라 변하는 데이터인 시계열 데이터를 분석하는데 복잡한 알고리즘을 사용하며, 이는 매우 많은 시간과 전력 소모를 필요로 했다.
김경민 교수 연구팀은 이러한 난제를 해결하며 뇌 속 뉴런처럼 흥분하거나 억제되는 반응을 전기 신호만으로 동시에 구현하여 시계열 데이터의 정보 처리에 특화된 단일 반도체 소자를 새롭게 설계했다.
해당 소자는 산화 티타늄(TiO2)과 산화 알루미늄(Al2O3)이라는 두 산화물층을 쌓아 만든 구조로, 두 층이 맞닿는 계면에서는 전자가 자유롭게 빠르게 이동하는 이차원 전자가스(2DEG)** 층이 형성된다. 그리고, 이 층의 양 끝에는 흥분성 및 억제성 신호에 모두 반응하는 뉴런형 소자가 연결되어 있다.
**2DEG(Two-Dimensional Electron Gas): 계면에서 전도성이 우수한 전자 층이 형성되는 현상으로, 높은 이동도와 빠른 응답속도를 제공함
이러한 독특한 구조 덕분에 뉴랜지스터는 게이트 전압의 극성에 따라 소스와 드레인 간에 흥분성(EPSP) 또는 억제성(IPSP) 반응을 선택적으로 구현할 수 있다.
이 소자는 또한 기존 LSM 구현에서 필수적이었던 복잡한 입력 신호 전처리 과정(마스킹)도 간단히 해결했다. 기존에는 '마스킹' 기능 구현이 매우 복잡했으나, 뉴랜지스터는 소스 전극에 가해지는 전압을 조절함으로써 간단하게 마스킹 기능을 구현하고, 시계열 입력 신호를 다차원의 출력 정보로 정확하게 변환하였다. 또한, 높은 내구성과 소자 간의 균일성도 확보해 실용성도 역시 뛰어났다.
연구팀은 뉴랜지스터를 기반으로 복잡한 시계열 데이터를 처리하는 ‘두뇌형 정보처리 시스템’인 LSM을 구현하였다. 실험 결과, 뉴랜지스터를 활용하는 경우 기존의 방식보다 10배 이상 낮은 오차율과 높은 예측 정확도를 기록했고, 학습 속도도 더 빨라졌다.
김경민 교수는 “이번 연구는 인간 뇌의 신호 처리 방식과 유사한 구조를 실제 반도체 소자로 구현했다는 데 큰 의의가 있다”며 “이 기술은 향후 뇌신경 모사형 AI, 예측 시스템, 혼돈 신호 제어 등 다양한 분야에서 중요한 역할을 할 것으로 기대된다”고 전했다.
이번 연구는 신소재공학과 정운형 박사, 김근영 박사가 공동 제1 저자로 참여했으며, 재료 분야 세계적 권위의 국제 학술지 ‘어드밴스드 머터리얼즈(Advanced Materials, IF: 27.4)’에 2025년 4월 8일 字 게재됐다.
(논문명: A Neuransistor with Excitatory and Inhibitory Neuronal Behaviors for Liquid State Machine, DOI: 10.1002/adma.202419122)
한편, 이번 연구는 나노종합기술원, 한국연구재단의 지원을 받아 수행됐다.
2025.04.16
조회수 6601
-
로봇 등 온디바이스 인공지능 실현 가능
자율주행차, 로봇 등 온디바이스 자율 시스템 환경에서 클라우드의 원격 컴퓨팅 자원 없이 기기 자체에 내장된 인공지능 칩을 활용한 온디바이스 자원만으로 적응형 AI를 실현하는 기술이 개발됐다.
우리 대학 전산학부 박종세 교수 연구팀이 지난 6월 29일부터 7월 3일까지 아르헨티나 부에노스아이레스에서 열린 ‘2024 국제 컴퓨터구조 심포지엄(International Symposium on Computer Architecture, ISCA 2024)’에서 최우수 연구 기록물상(Distinguished Artifact Award)을 수상했다고 1일 밝혔다.
* 논문명: 자율 시스템의 비디오 분석을 위한 연속학습 가속화 기법(DaCapo: Accelerating Continuous Learning in Autonomous Systems for Video Analytics)
국제 컴퓨터 구조 심포지움(ISCA)은 컴퓨터 아키텍처 분야에서 최고 권위를 자랑하는 국제 학회로 올해는 423편의 논문이 제출됐으며 그중 83편 만이 채택됐다. (채택률 19.6%). 최우수 연구 기록물 상은 학회에서 주어지는 특별한 상 중 하나로, 제출 논문 중 연구 기록물의 혁신성, 활용 가능성, 영향력을 고려해 선정된다.
이번 수상 연구는 적응형 AI의 기반 기술인 ‘연속 학습’ 가속을 위한 NPU(신경망처리장치) 구조 및 온디바이스 소프트웨어 시스템을 최초 개발한 점, 향후 온디바이스 AI 시스템 연구의 지속적인 발전을 위해 오픈소스로 공개한 코드, 데이터 등의 완성도 측면에서 높은 평가를 받았다.
연구 결과는 소프트웨어 중심 자동차(SDV; Software-Defined Vehicles), 소프트웨어 중심 로봇(SDR; Software-Defined Robots)으로 대표되는 미래 모빌리티 환경에서 온디바이스 AI 시스템을 구축하는 등 다양한 분야에 활용될 수 있을 것으로 기대된다.
상을 받은 전산학부 박종세 교수는 “이번 연구를 통해 온디바이스 자원만으로 적응형 AI를 실현할 수 있다는 것을 입증하게 되어 매우 기쁘고 이 성과는 학생들의 헌신적인 노력과 구글 및 메타 연구자들과의 긴밀한 협력 덕분이다”라며, “앞으로도 온디바이스 AI를 위한 하드웨어와 소프트웨어 연구를 지속해 나갈 것이다”라고 소감을 전했다.
이번 연구는 우리 대학 전산학부 김윤성, 오창훈, 황진우, 김원웅, 오성룡, 이유빈 학생들과 메타(Meta)의 하딕 샤르마(Hardik Sharma) 박사, 구글 딥마인드(Google Deepmind)의 아미르 야즈단바크시(Amir Yazdanbakhsh) 박사, 전산학부 박종세 교수가 참여했다.
한편 이번 연구는 한국연구재단 우수신진연구자지원사업, 정보통신기획평가원(IITP), 대학ICT연구센터(ITRC), 인공지능대학원지원사업, 인공지능반도체대학원지원사업의 지원을 받아 수행됐다.
2024.08.01
조회수 9741
-
혐오 발언 탐지의 문화적 차이 해결, NAACL 2024에서 Resource Award 수상
전산학부 Users & Information Lab. 연구실의 오혜연 교수와 제1저자 석사과정 이나연(오혜연 교수 지도 학생)의 연구가 지난 6월 16일부터 21일까지 멕시코시티에서 열린 '2024 Annual Conference of the North American Chapter of the Association for Computational Linguistics' (NAACL 2024) 국제 학회에서 '교차 문화적 데이터셋 구축을 통한 영어 혐오 발언 어노테이션의 문화 간 차이와 영향 분석(Exploring Cross-Cultural Differences in English Hate Speech Annotations: From Dataset Construction to Analysis)'에 관한 논문으로 '리소스 어워드(Resource Award)'를 수상했다.
NAACL은 자연어처리 분야에서 최고 권위를 자랑하는 국제 학회로, 올해는 2,434편의 논문이 제출되었으며 그 중 565편만이 채택되었다 (채택률 23.2%).
Resource Award는 학회에서 주어지는 특별한 상 중 하나로, 제출 논문 중 혁신성, 활용 가능성, 영향력, 품질을 고려하여 선정된다.
이번 수상 연구는 교차 문화적 영어 혐오 발언 데이터셋을 구축하고, 문화 간 어노테이션 차이와 대형 언어 모델의 편향성을 분석하여 영어 혐오 발언 분류기의 문화적 민감성을 향상시키는 데 기여했다는점에서 높은 평가를 받았다.
이번 연구에는 KAIST 전산학부의 이나연, 정찬이, 명준호, 진지호 학생들과 Cardiff University의 Jose Camacho-Collados 교수, KAIST 전산학부의 김주호 교수, 오혜연 교수가 참여하였다. 본 연구는 미국, 호주, 영국, 싱가포르, 남아프리카 공화국의 5개 영어권 국가에서 수집된 데이터와 어노테이션을 기반으로 하여, 각국의 문화적 배경이 혐오 발언 어노테이션에 미치는 영향을 분석했다. 이를 통해 문화적 배경이 혐오 발언 인식에 미치는 중요한 차이를 밝혀냈으며, 특히 서구권 국가와 다른 문화적 맥락을 가진 국가 간의 어노테이션 차이가 두드러짐을 보였다.
오혜연 교수와 이나연 학생은 "이번 연구를 통해 혐오 발언 탐지에 있어 문화적 차이의 중요성을 밝힐 수 있어 기쁩니다. 연구팀의 노력 덕분에 이러한 성과를 얻을 수 있었으며, 앞으로도 자연어처리 분야에서 문화적 다양성을 고려한 연구를 지속해 나가겠습니다."라고 소감을 전했다.
이번 수상은 KAIST 연구팀의 혁신적인 접근과 자연어처리 분야에서의 문화 간 연구의 중요성을 국제적으로 인정받은 결과이다. 이는 앞으로 관련 연구 발전에 큰 기여를 할 것으로 기대된다.
연구 결과는 혐오 발언 탐지 분야뿐만 아니라, 다문화 사회에서의 인공지능 윤리와 문화적 편향성 해소 등 다양한 분야에 활용될 수 있을 것으로 기대된다.
자세한 내용은 논문 링크(https://aclanthology.org/2024.naacl-long.236)에서 확인할 수 있다.
2024.07.16
조회수 6541
-
멀티모달 대형언어모델이 GPT-4V를 뛰어넘다
멀티모달 대형 언어모델이란 텍스트뿐만 아니라 이미지 데이터 유형까지 처리할 수 있는 초대형 언어모델을 말한다. 해외 대형 기업의 풍부한 컴퓨팅 자원의 지원으로부터 인간의 뇌에 있는 신경망의 개수와 유사한 수준초대형모델들이 만들어지고 있으나 학계에서는 이런 개발이 쉽지 않았다. KAIST 연구진이 오픈AI의 GPT-4V와 구글의 제미나이-프로(Gemini-Pro)를 뛰어넘는 멀티모달 대형언어모델을 개발하여 화제다.
우리 대학 전기및전자공학부 노용만 교수 연구팀이 오픈AI(OpenAI)의 GPT-4V 등 기업에서 비공개하고 있는 상업 모델인 초대형 언어모델의 시각 성능을 뛰어넘는 공개형 멀티모달 대형 언어모델을 개발해 출시했다고 20일 밝혔다.
노용만 교수 연구팀은 단순히 모델의 크기를 키우거나 고품질의 시각적 지시 조정 데이터셋을 만들지 않고 멀티모달 대형언어모델의 시각 성능을 획기적으로 높인 콜라보(CoLLaVO), 모아이(MoAI) 2가지 기술을 연속적으로 개발했다고 밝혔다.
연구팀이 개발한 첫번째 기술인 ‘콜라보(CoLLaVO)’는 현존하는 공개형 멀티모달 대형언어모델이 비공개형 모델의 성능에 비해 현저하게 낮은 이유를 일차적으로 물체 수준에 대한 이미지 이해 능력이 현저하게 떨어진다는 것을 먼저 검증해 보였다.
해당 능력을 효율적으로 증가시켜 시각-언어 태스크에 대한 성능을 향상 하기 위해 연구팀은 이미지 내의 정보를 배경과 물체 단위로 분할하고 각 배경 및 물체에 대한 정보를 멀티모달 대형언어모델에 입력으로 직접 넣어주는 새로운 방법‘크레용 프롬프트(Crayon Prompt)’라는 시각적 프롬프트를 새롭게 제안했다.
또한 시각적 지시 조정 단계에서 크레용 프롬프트로 학습한 정보를 잃어버리지 않기 위해 연구팀은 물체 수준 이미지 이해 능력과 시각-언어 태스크 처리 능력을 서로 다른 파라미터로 학습해 서로 간의 정보를 잃지 않게 만드는 획기적인 학습 전략인 ‘듀얼 큐로라(Dual QLoRA)’를 제안했다. 이를 통해, 콜라보(CoLLaVO) 멀티모달 대형언어모델은 이미지 내에서 배경 및 물체를 구분하는 능력이 뛰어나 일차원적인 시각 구분 능력이 크게 향상됐다고 밝혔다.
두 번째 대형언어모델인 ‘모아이(MoAI)’는 인간이 사물을 판단할 때 물체의 존재, 상태, 물체 간의 상호작용, 배경에 대한 이해, 텍스트에 대한 이해 등으로부터 상황을 판단하는 인지과학적인 요소에 영감을 받아서 만들어졌다고 밝혔다.
이는 기존 멀티모달 대형언어모델이 텍스트에 의미적으로 정렬된 시각 인코더(vision encoder)만을 사용하기 때문에, 이미지 픽셀 수준에서의 상세하고 종합적인 실세계 장면 이해가 부족하다는 점을 지적하며 이런 컴퓨터 비전 모델들의 결과를 받으면 모두 인간이 이해할 수 있는 언어로 변환한 뒤에 멀티모달 대형언어모델에 입력으로 직접 사용했다.
노용만 교수는 “연구팀에서 개발한 공개형 멀티모달 대형언어모델이 허깅페이스 일간 화제의 논문(Huggingface Daily Papers)에 추천됐고, 각종 SNS를 통해 세계 연구자에게 알려지고 있으며, 모든 모델을 공개형 대형언어모델로 출시 했기 때문에 이 연구모델이 멀티모달 대형언어모델 발전에 기여할 것이다”이라고 언급했다.
연구팀이 개발한 멀티모달 대형언어모델인 콜라보(CoLLaVO)와 모아이(MoAI)는 KAIST 전기및전자공학부 이병관 박사과정이 제1 저자로 참여하고 박범찬 석박사통합과정, 김채원 박사과정이 공동 저자로 참여했다.
콜라보(CoLLaVO)는 자연어 처리(NLP) 분야 최고의 국제 학회인 ‘Findings of the Association for Computational Linguistics(ACL Findings) 2024’에 5월 16일 자로 학회에 승인받았고, 모아이(MoAI)는 컴퓨터 비전 최고의 국제 학회인 ‘European Conference on Computer Vision(ECCV) 2024’학회 승인 결과를 기다리고 있다고 밝혔다.
한편 이번 연구는 KAIST 미래국방 인공지능 특화연구센터 및 전기및전자공학부의 지원을 받아 수행됐다.
[1] CoLLaVO 데모 GIF 영상
https://github.com/ByungKwanLee/CoLLaVO
[2] MoAI 데모 GIF 영상
https://github.com/ByungKwanLee/MoAI
2024.06.20
조회수 11652
-
‘당신 우울한가요?’ 스마트폰으로 진단하다
요즘 현대인들에게 많이 찾아오는 우울증을 진단하기 위한 스마트폰으로 진단하는 연구가 개발되어 화제다.
우리 대학 전기및전자공학부 이성주 교수 연구팀이 사용자의 언어 사용 패턴을 개인정보 유출 없이 스마트폰에서 자동으로 분석해 사용자의 정신건강 상태를 모니터링하는 인공지능 기술을 개발했다고 21일 밝혔다. 사용자가 스마트폰을 소지하고 일상적으로 사용하기만 해도 스마트폰이 사용자의 정신건강 상태를 분석 및 진단할 수 있는 것이다.
연구팀은 임상적으로 이뤄지는 정신질환 진단이 환자와의 상담을 통한 언어 사용 분석에서 이루어진다는 점에 착안해 연구를 진행했다. 이번 기술에서는 (1) 사용자가 직접 작성한 문자 메시지 등의 키보드 입력 내용과, (2) 스마트폰 위 마이크에서 실시간으로 수집되는 사용자의 음성 데이터를 기반으로 정신건강 진단을 수행한다.
이러한 언어 데이터는 사용자의 민감한 정보를 담고 있을 수 있어 기존에는 활용이 어려웠다. 이러한 문제의 해결을 위해 이번 기술에는 연합학습 인공지능 기술이 적용됐는데, 이는 사용자 기기 외부로의 데이터 유출 없이 인공지능 모델을 학습해 사생활 침해의 우려가 없다는 것이 특징이다.
인공지능 모델은 일상 대화 내용과 화자의 정신건강을 바탕으로 한 데이터셋을 기반으로 학습되었다. 모델은 스마트폰에서 입력으로 주어지는 대화를 실시간으로 분석하여 학습된 내용을 바탕으로 사용자의 정신건강 척도를 예측한다.
더 나아가, 연구팀은 스마트폰 위 대량으로 주어지는 사용자 언어 데이터로부터 효과적인 정신건강 진단을 수행하는 방법론을 개발했다. 연구팀은 사용자들이 언어를 사용하는 패턴이 실생활 속 다양한 상황에 따라 다르다는 것에 착안해, 스마트폰 위에서 주어지는 현재 상황에 대한 단서를 기반으로, 인공지능 모델이 상대적으로 중요한 언어 데이터에 집중하도록 설계했다. 예를 들어, 업무 시간보다는 저녁 시간에 가족 또는 친구들과 나누는 대화에 정신건강을 모니터링 할 수 있는 단서가 많다고 인공지능 모델이 판단해 중점을 두고 분석하는 식이다.
이번 논문은 전산학부 신재민 박사과정, 전기및전자공학부 윤형준 박사과정, 이승주 석사과정, 이성주 교수와 박성준 SoftlyAI 대표(KAIST 졸업생), 중국 칭화대학교 윤신 리우(Yunxin Liu) 교수, 그리고 미국 에모리(Emory) 대학교 최진호 교수의 공동연구로 이뤄졌다.
이번 논문은 올해 12월 6일부터 10일까지 싱가폴에서 열린 자연어 처리 분야 최고 권위 학회인 EMNLP(Conference on Empirical Methods in Natural Language Processing)에서 발표됐다.
※ 논문명(FedTherapist: Mental Health Monitoring with User-Generated Linguistic Expressions on Smartphones via Federated Learning)
이성주 교수는 "이번 연구는 모바일 센싱, 자연어 처리, 인공지능, 심리학 전문가들의 협력으로 이루어져서 의미가 깊으며, 정신질환으로 어려워하는 사람들이 많은데, 개인정보 유출이나 사생활 침범의 걱정 없이 스마트폰 사용만으로 정신건강 상태를 조기진단 할 수 있게 되었다ˮ라며, "이번 연구가 서비스화되어 사회에 도움이 되면 좋겠다ˮ라고 소감을 밝혔다.
이 연구는 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행됐다. (No. 2022-0-00495, 휴대폰 단말에서의 보이스피싱 탐지 예방 기술 개발, No. 2022-0-00064, 감정노동자의 정신건강 위험 예측 및 관리를 위한 휴먼 디지털 트윈 기술 개발)
2023.12.21
조회수 12627
-
구글딥마인드와 공동연구를 통해 인공지능으로 시각을 상상하다
‘노란 포도'나 `보라색 바나나'와 같이 본 적 없는 시각 개념을 이해하고 상상하는 인공지능 능력 구현이 가능해졌다.
우리 대학 전산학부 안성진 교수 연구팀이 구글 딥마인드 및 미국 럿거스 대학교와의 국제 공동 연구를 통해 시각적 지식을 체계적으로 조합해 새로운 개념을 이해하는 인공지능 새로운 모델과 프로그램을 수행하는 벤치마크를 개발했다고 30일 밝혔다.
인간은 `보라색 포도'와 `노란 바나나' 같은 개념을 학습하고, 이를 분리한 뒤 재조합해 `노란 포도'나 `보라색 바나나'와 같이 본 적 없는 개념을 상상하는 능력이 있다. 이런 능력은 체계적 일반화 혹은 조합적 일반화라고 불리며, 범용 인공지능을 구현하는 데 있어 핵심적인 요소로 여겨진다.
체계적 일반화 문제는 1988년 미국의 저명한 인지과학자 제리 포더(Jerry Fodor)와 제논 필리쉰(Zenon Pylyshyn)이 인공신경망이 이 문제를 해결할 수 없다고 주장한 이후, 35년 동안 인공지능 딥러닝 분야에서 큰 도전 과제로 남아 있다. 이 문제는 언어뿐만 아니라 시각 정보에서도 발생하지만, 지금까지는 주로 언어의 체계적 일반화에만 초점이 맞춰져 있었고, 시각 정보에 관한 연구는 상대적으로 부족했다.
안성진 교수가 이끄는 국제 공동 연구팀은 이러한 공백을 메우고자 시각 정보에 대한 체계적 일반화를 연구할 수 있는 벤치마크를 개발했다. 시각 정보는 언어와는 달리 명확한 `단어'나 `토큰'의 구조가 없어, 이 구조를 학습하고 체계적 일반화를 달성하는 것이 큰 도전이다.
연구를 주도한 안성진 교수는 “시각 정보의 체계적 일반화가 범용 인공지능을 달성하기 위해 필수적인 능력이며 이 연구를 통해 인공지능의 추론능력과 상상능력 관련 분야의 발전을 가속할 것으로 기대한다”고 말했다.
또한, 딥마인드의 책임 연구원으로 연구에 참여한 연구원이자 현재 스위스 로잔연방공과대학교(EPFL)의 찰라 걸셔(Caglar Gulcehre) 교수는 “체계적 일반화가 가능해지면 현재보다 훨씬 적은 데이터로 더 높은 성능을 낼 수 있게 될 것이다”라고 전했다.
이번 연구는 12월 10일부터 16일까지 미국 뉴올리언스에서 열리는 제37회 신경정보처리학회(NeurIPS)에서 발표될 예정이다.
관련논문: “Imagine the Unseen World: A Benchmark for Systematic Generalization in Visual World Models”, Yeongbin Kim, Gautam Singh, Junyeong Park, Caglar Gulcehre, Sungjin Ahn, NeurIPS 23
2023.11.30
조회수 10837
-
예종철 교수 연구팀, 삼성휴먼테크 논문대상 신호처리분야 금상 수상
우리 대학 김재철AI대학원 예종철 교수팀이 `확산모델 (diffusion model)의 사후 샘플링(posterior sampling)을 이용한 일반적인 역문제 해결 기법'으로 제 29회 삼성휴먼테크논문대상에서 신호처리 분야 금상을 수상했다고 밝혔다.
삼성휴먼테크논문대상은 과학기술 저변 확대와 과학 인재 양성을 위해 삼성전자가 1994년 제정한 논문상으로, 매년 2,000편 가량의 논문 중 서면 및 발표 심사를 거쳐 창의성, 논리성, 실용성, 발전성이 뛰어난 논문을 선정하여 수여되는 상이다.
바이오및뇌공학과 박사과정 졍형진, 김정솔 학생이 공동 1저자로 참여한 이 논문은, 확산 모델과 사후 샘플링을 결합하여 일반적인 역문제에 대한 새로운 관점과 해결방법을 제시하였고, 그 실용성과 독창성을 인정받아 대학부 신호처리 분야 수상작 7편 중 1위로 금상을 수상하였다.
역문제는 영상을 획득하는 과정에서 이미징 시스템의 특성과 잡음의 영향으로 망가진 측정값으로부터 실제 신호를 복원하는 문제로 정의된다. 이러한 문제는 영상 화질 개선부터 위상 복원을 통한 세포 구조 시각화와 같은 다양한 과학 분야에서 중요성과 실용성을 가지며, 수십 년간 지속적으로 연구되어 왔다. 과거의 인공지능 및 딥러닝 알고리즘은 이미징 시스템이 선형이며 잡음이 없는 경우를 가정하여 역문제를 효과적으로 해결하였으나, 이러한 가정은 현실 세계에서의 상황과 비교하여 훨씬 단순화된 형태였다.
이 연구에서는 처음으로 확산 모델을 이용해 사후 샘플링을 진행하는 방법으로 역문제를 해결하였는데, 이는 확산 모델이 생성하는 중간 이미지로 측정값을 근사하고, 실제 측정값과의 차이가 줄어들도록 중간 이미지를 보정하는 방식으로 구현된다.
이를 통해 이미징 시스템이 선형 및 비선형인 경우, 그리고 이미징 시스템에서 흔히 발생하는 가우시안 잡음과 푸아송 잡음이 존재하는 경우에 대한 일반적인 역문제 해결이 가능함을 입증하였다. 나아가 개발된 기술은 여러 종류의 역문제에 대한 개별적 학습을 필요로 하지 않는 특성을 가지며, 이는 논문의 실용성을 높이고, 이전의 연구들과 차별성을 지니게 한다.
정형진, 김정솔 바이오및뇌공학과 박사과정 학생은 “큰 규모의 논문대회에서 연구의 내용을 인정받아 기쁘고, 좋은 논문을 작성할 수 있도록 지도해주신 예종철 교수님께 감사하다” 고 소감을 밝혔다. 또한, 알고리즘의 성능과 효율성을 높이는 연구를 이어나가 역문제의 해결이 필요한 다양한 과학 분야들에 기여하고 싶다는 희망을 전했다.
논문명: Diffusion Posterior Sampling for General Noisy Inverse Problems
2023.11.07
조회수 7819