〈 예종철 교수, 한요섭 연구원, 차은주 연구원 〉
우리 대학 바이오및뇌공학과 예종철 석좌교수 연구팀이 인공지능의 기하학적인 구조를 규명하고 이를 통해 의료영상 및 정밀분야에 활용 가능한 고성능 인공신경망 제작의 수학적인 원리를 밝혔다.
연구팀의 ‘심층 합성곱 프레임렛(Deep Convolutional Framelets)’이라는 새로운 조화분석학적 기술은 인공지능의 블랙박스로 알려진 심층 신경망의 수학적 원리를 밝혀 기존 심층 신경망 구조의 단점을 보완하고 이를 다양하게 응용 가능할 것으로 기대된다.
예종철 석좌교수가 주도하고 한요섭, 차은주 박사과정이 참여한 이번 연구는 응용수학 분야 국제 학술지 ‘사이암 저널 온 이매징 사이언스(SIAM Journal on Imaging Sciences)’ 4월 26일자 온라인 판에 게재됐다.
심층신경망은 최근 폭발적으로 성장하는 인공지능의 핵심을 이루는 딥 러닝의 대표적인 구현 방법이다. 이를 이용한 영상, 음성 인식 및 영상처리 기법, 바둑, 체스 등은 이미 사람의 능력을 뛰어넘고 있으며 현재 4차 산업혁명의 핵심기술로 알려져 있다.
그러나 이러한 심층신경망은 그 뛰어난 성능에도 불구하고 정확한 동작원리가 밝혀지지 않아 예상하지 못한 결과가 나오거나 오류가 발생하는 문제가 있다. 이로 인해 ‘설명 가능한 인공지능(explainable AI: XAI)’에 대한 사회적, 기술적 요구가 커지고 있다.
연구팀은 심층신경망의 구조가 얻어지는 고차원 공간에서의 기하학적 구조를 찾기 위해 노력했다. 그 결과 기존의 신호처리 분야에서 집중 연구된 고차원 구조인 행켈구조 행렬(Hankel matrix)을 기저함수로 분해하는 과정에서 심층신경망 구조가 나오는 것을 발견했다.
행켈 행렬이 분해되는 과정에서 기저함수는 국지기저함수(local basis)와 광역기저함수(non-local basis)로 나눠진다. 연구팀은 광역기저함수와 국지기저함수가 각각 인공지능의 풀링(pooling)과 필터링(filtering) 역할을 한다는 것을 밝혔다.
기존에는 인공지능을 구현하기 위한 심층신경망을 구성할 때 구체적인 작동 원리를 모른 채 실험적으로 구현했다면, 연구팀은 신호를 효과적으로 나타내는 고차원 공간인 행켈 행렬를 찾고 이를 분리하는 방식을 통해 필터링, 풀링 구조를 얻는 이론적인 구조를 제시한 것이다.
이러한 성질을 이용하면 입력신호의 복잡성에 따라 기저함수의 개수와 심층신경망의 깊이를 정해 원하는 심층신경망의 구조를 제시할 수 있다.
연구팀은 수학적 원리를 통해 제안된 인공신경망 구조를 영상잡음제거, 영상 화소복원 및 의료영상 복원 문제에 적용했고 매우 우수한 성능을 보임을 확인했다.
예종철 교수는 “시행착오를 반복해 설계하는 기존의 심층신경망과는 달리 원하는 응용에 따라 최적화된 심층신경망구조를 수학적 원리로 디자인하고 그 영향을 예측할 수 있다”며 “이 결과를 통해 의료 영상 등 설명 가능한 인공지능이 필요한 다양한 분야에 응용될 수 있다”고 말했다.
이번 연구는 과학기술정보통신부의 중견연구자지원사업(도약연구) 및 뇌과학원천기술사업의 지원을 받아 수행됐다.
□ 그림 설명
그림1. 수학적인 원리를 이용한 심층신경망의 설계 예시
그림2. 영상잡음제거 결과
그림3. 영상에서 80% 화소가 사라진 경우 인공신경망을 통해 복원한 결과
최근 생성형 인공지능은 텍스트, 이미지, 비디오 생성 등 다양한 분야에서 널리 사용되고 있지만, 소재 개발 분야에서는 아직 충분히 활용되지 못하고 있다. 이러한 상황에서 KAIST 연구진이 구조적 복잡성을 지닌 다공성 소재를 생성하는 인공지능 모델을 개발하여, 사용자가 원하는 특성의 소재를 선택적으로 생성할 수 있게 되었다. 우리 대학 생명화학공학과 김지한 교수 연구팀이 원하는 물성을 가진 금속 유기 골격체(Metal-Organic Frameworks, MOF)를 생성하는 인공지능 모델을 개발했다고 23일 밝혔다. 김지한 교수 연구팀이 개발한 생성형 인공지능 모델인 모퓨전(MOFFUSION)은 금속 유기 골격체의 구조를 보다 효율적으로 표현하기 위해, 이들의 공극 구조를 3차원 모델링 기법을 활용해 나타내는 혁신적인 접근 방식을 채택했다. 이 기법을 통해 기존 모델들에서 보고된 낮은 구조 생성 효율을 81.7%로 크게 향상시켰다. 또한, 모퓨전은 생성 과정에서 사용자
2025-01-23기존 컴퓨터 시스템은 데이터 처리 장치와 저장 장치가 분리돼 있어, 인공지능처럼 복잡한 데이터를 처리하기에는 효율적이지 않다. KAIST 연구팀은 우리 뇌의 정보 처리 방식과 유사한 멤리스터 기반 통합 시스템을 개발했다. 이제 원격 클라우드 서버에 의존하지 않고 의심스러운 활동을 즉시 인식하는 스마트 보안 카메라부터 건강 데이터를 실시간으로 분석할 수 있는 의료기기까지 다양한 분야에 적용될 수 있게 되었다. 우리 대학 전기및전자공학부 최신현 교수, 윤영규 교수 공동연구팀이 스스로 학습하고 오류를 수정할 수 있는 차세대 뉴로모픽 반도체 기반 초소형 컴퓨팅 칩을 개발했다고 17일 밝혔다. 연구팀이 개발한 이 컴퓨팅 칩의 특별한 점은 기존 뉴로모픽 소자에서 해결이 어려웠던 비이상적 특성에서 발생하는 오류를 스스로 학습하고 수정할 수 있다는 것이다. 예를 들어, 영상 스트림을 처리할 때 칩은 움직이는 물체를 배경에서 자동으로 분리하는 법을 학습하며 시간이 지날수록 이 작업을 더 잘 수
2025-01-22KAIST 설명가능 인공지능연구센터(센터장 최재식 교수)는 별도의 복잡한 설정이나 전문 지식 없이도 손쉽게 AI모델에 대한 설명성을 제공할 수 있는 플러그앤플레이(Plug-and-Play) 방식의 설명가능 인공지능 프레임워크를 개발해, 이를 27일 오픈소스로 공개했다. 설명가능 인공지능(Explainable AI, 이하 XAI)이란 AI 시스템의 결과에 영향을 미치는 주요 요소를 사람이 이해할 수 있는 형태로 설명해주는 제반 기술을 말한다. 최근 딥러닝 모델과 같이 내부 의사 결정 프로세스가 불투명한 블랙박스 AI 모델에 대한 의존도가 커지면서 설명가능 인공지능 분야에 대한 관심과 연구가 증가했다. 그러나 지금까지는 연구자와 기업 실무자들이 설명가능 인공지능 기술을 활용하는 것이 몇 가지 이유로 쉽지 않았다. 우선, 딥러닝 모델의 유형별로 적용 가능한 설명 알고리즘들이 서로 달라서 해당 모델에 적용할 수 있는 설명 알고리즘이 무엇인지 알기 위해서는 XAI에 대해 어느 정도 사
2024-12-27“케이던스 사의 통 큰 기부에 감사드리며, 대한민국 AI 인재 100만 명 양성이라는 원대한 목표 달성과 세상을 혁신할 반도체 연구 실현에 앞장서겠습니다”(이광형 총장) 우리 대학은 미국 소프트웨어 기업인 케이던스 디자인 시스템즈 코리아(Cadence Design Systems, 이하 케이던스)가 반도체 설계 특화 장비인 ‘케이던스 팔라디움 제트원(Cadence Palladium Z1)’*을 우리 대학에 기증한다고 밝혔다. *팔라디움 제트원: 반도체 설계 검증을 위한 초고성능 에뮬레이터 장비로, 하드웨어-소프트웨어 검증 및 디버깅 작업을 1개의 랙 당 5.76억 게이트까지 대용량으로 구현 가능함. 동 장비를 통해 SoC(System On Chip) 개발 단계에서 설계 검증을 더 원활히 수행할 수 있음. 케이던스는 1995년 반도체설계교육센터(IDEC) 설립 이후 우리 대학에 EDA(Electronic Design Automati
2024-12-17국내 최대의 설명가능 인공지능(XAI) 연구조직인 KAIST 설명가능 인공지능연구센터(센터장 KAIST 최재식 교수)는 11월 5일부터 22일까지 7회에 걸쳐 설명가능 인공지능 튜토리얼 시리즈를 성공적으로 개최했다. 이번 튜토리얼에는 학생, 연구자, 기업 실무자 등 누적인원 총 530여 명이 참여하여 설명가능 인공지능 기술에 대한 높은 관심과 수요를 보여주었다. 행사는 XAI의 주요 알고리즘부터 최신 연구 주제까지, 총 16개 세션 발표로 진행되었다. 개회 강연으로 ‘설명가능 인공지능 최신 연구 동향’에 대해 최재식 교수가 발표하였고, 이어서 KAIST 설명가능 인공지능연구센터 소속 석·박사 과정 연구원들이 △주요 XAI 알고리즘 △XAI 알고리즘의 평가기법 △거대 언어모델(LLM), 이미지 생성모델, 시계열 데이터에 대한 설명성 △ XAI Framework, 의료 도메인 적용 사례를 주제로 발표했다. 튜토리얼 마지막날에는 독일 Fraunho
2024-11-29