〈 예종철 교수, 한요섭 연구원, 차은주 연구원 〉
우리 대학 바이오및뇌공학과 예종철 석좌교수 연구팀이 인공지능의 기하학적인 구조를 규명하고 이를 통해 의료영상 및 정밀분야에 활용 가능한 고성능 인공신경망 제작의 수학적인 원리를 밝혔다.
연구팀의 ‘심층 합성곱 프레임렛(Deep Convolutional Framelets)’이라는 새로운 조화분석학적 기술은 인공지능의 블랙박스로 알려진 심층 신경망의 수학적 원리를 밝혀 기존 심층 신경망 구조의 단점을 보완하고 이를 다양하게 응용 가능할 것으로 기대된다.
예종철 석좌교수가 주도하고 한요섭, 차은주 박사과정이 참여한 이번 연구는 응용수학 분야 국제 학술지 ‘사이암 저널 온 이매징 사이언스(SIAM Journal on Imaging Sciences)’ 4월 26일자 온라인 판에 게재됐다.
심층신경망은 최근 폭발적으로 성장하는 인공지능의 핵심을 이루는 딥 러닝의 대표적인 구현 방법이다. 이를 이용한 영상, 음성 인식 및 영상처리 기법, 바둑, 체스 등은 이미 사람의 능력을 뛰어넘고 있으며 현재 4차 산업혁명의 핵심기술로 알려져 있다.
그러나 이러한 심층신경망은 그 뛰어난 성능에도 불구하고 정확한 동작원리가 밝혀지지 않아 예상하지 못한 결과가 나오거나 오류가 발생하는 문제가 있다. 이로 인해 ‘설명 가능한 인공지능(explainable AI: XAI)’에 대한 사회적, 기술적 요구가 커지고 있다.
연구팀은 심층신경망의 구조가 얻어지는 고차원 공간에서의 기하학적 구조를 찾기 위해 노력했다. 그 결과 기존의 신호처리 분야에서 집중 연구된 고차원 구조인 행켈구조 행렬(Hankel matrix)을 기저함수로 분해하는 과정에서 심층신경망 구조가 나오는 것을 발견했다.
행켈 행렬이 분해되는 과정에서 기저함수는 국지기저함수(local basis)와 광역기저함수(non-local basis)로 나눠진다. 연구팀은 광역기저함수와 국지기저함수가 각각 인공지능의 풀링(pooling)과 필터링(filtering) 역할을 한다는 것을 밝혔다.
기존에는 인공지능을 구현하기 위한 심층신경망을 구성할 때 구체적인 작동 원리를 모른 채 실험적으로 구현했다면, 연구팀은 신호를 효과적으로 나타내는 고차원 공간인 행켈 행렬를 찾고 이를 분리하는 방식을 통해 필터링, 풀링 구조를 얻는 이론적인 구조를 제시한 것이다.
이러한 성질을 이용하면 입력신호의 복잡성에 따라 기저함수의 개수와 심층신경망의 깊이를 정해 원하는 심층신경망의 구조를 제시할 수 있다.
연구팀은 수학적 원리를 통해 제안된 인공신경망 구조를 영상잡음제거, 영상 화소복원 및 의료영상 복원 문제에 적용했고 매우 우수한 성능을 보임을 확인했다.
예종철 교수는 “시행착오를 반복해 설계하는 기존의 심층신경망과는 달리 원하는 응용에 따라 최적화된 심층신경망구조를 수학적 원리로 디자인하고 그 영향을 예측할 수 있다”며 “이 결과를 통해 의료 영상 등 설명 가능한 인공지능이 필요한 다양한 분야에 응용될 수 있다”고 말했다.
이번 연구는 과학기술정보통신부의 중견연구자지원사업(도약연구) 및 뇌과학원천기술사업의 지원을 받아 수행됐다.
□ 그림 설명
그림1. 수학적인 원리를 이용한 심층신경망의 설계 예시
그림2. 영상잡음제거 결과
그림3. 영상에서 80% 화소가 사라진 경우 인공신경망을 통해 복원한 결과
우리 대학 신소재공학과 김경민 교수 연구팀이 다양한 멤리스터* 소자를 이용한 설명 가능한 인공지능 (XAI) 시스템을 구현하는데 성공했다고 25일 밝혔다. *멤리스터 (Memristor): 메모리 (Memory)와 저항 (Resistor)의 합성어로, 입력 신호에 따라 소자의 저항 상태가 변하는 소자 최근 인공지능 (AI) 기술의 급속한 발전이 다양한 분야에서 성과를 이루고 있다. 이미지 인식, 음성 인식, 자연어 처리 등에서 AI의 적용 범위가 확대되며 우리의 일상생활에 깊숙이 자리 잡고 있다. AI는 인간의 뉴런 구조를 모방해 만든 ‘인공신경망’을 기반으로, 적게는 수백만 개에서 많게는 수조 개에 달하는 매개변수를 통해 데이터를 분석하고 의사 결정을 내린다. 그러나 이 많은 매개변수로 인해 AI 모델의 동작 원리를 정확하게 이해하기 어렵고, 이는 통상적으로 블랙박스에 비유되곤 한다. AI가 어떤 기준으로 결정을 내는지 알 수 없다면, AI에 결함이나
2024-03-25최근 실생활에 활용되는 인공지능 모델이 시간이 지남에 따라 성능이 점차 떨어지는 현상이 다수 발견되었고, 이에 따라 지속가능한 인공지능 학습 기술에 대한 필요성이 커지고 있다. AI 모델이 꾸준히 정확한 판단을 내리는 것은 더욱 안전하고 신뢰할 수 있는 인공지능을 만들기 위한 중요한 요소이다. 우리 대학 전기및전자공학부 황의종 교수 연구팀이 시간에 따라 데이터의 분포가 변화하는 드리프트 환경에서도 인공지능이 정확한 판단을 내리도록 돕는 새로운 학습 데이터 선택 기술을 개발했다고 14일 밝혔다. 최근 인공지능이 다양한 분야에서 인간의 능력을 뛰어넘을 정도의 높은 성능을 보여주고 있지만, 대부분의 좋은 결과는 AI 모델을 훈련시키고 성능을 테스트할 때 데이터의 분포가 변하지 않는 정적인 환경을 가정함으로써 얻어진다. 하지만 이러한 가정과는 다르게 SK 하이닉스의 반도체 공정 과정에서 시간에 따른 장비의 노화와 주기적인 점검으로 인해 센서 데이터의 관측값이 지속적으로 변화하는
2024-03-14우리 대학이 생성형 인공지능(generative AI)과 가상현실(VR)을 활용하여 초고속 생산성 시대를 열어가기 위한 본격적인 도전을 시작한다. 27일 대전 본원에 문을 연 'DRB-KAIST 스케치더퓨처 연구센터(센터장 배석형)'는 생성형 인공지능과 가상현실을 3D(3차원) 스케칭과 결합한 미래형 제품 개발 프로세스를 연구하기 위해 설립됐다. 로봇, 모빌리티, 인공 단백질과 같은 첨단 제조 산업 분야는 제품 개발 주기가 매우 길 뿐만 아니라, 설계 결함이 발견되면 다시 아이디어 발상 단계로 돌아가 실물 제작과 테스트까지의 모든 과정을 반복해야 한다. 또한, 복잡한 3차원 구조체가 한데 맞물려 움직이면서 고도의 기능을 수행하기 때문에, 기존 2차원 스크린 작업 환경에서는 설계 의도를 입력하거나 결과물을 해석하는 데 한계가 있었다.'DRB-KAIST 스케치더퓨처 연구센터'는 사람의 의도를 가장 빠르고 효과적으로 생성형 인공지능에 전달하는 수단으로 최신 가상현실 3D 스케
2024-02-29우리 대학이 '초세대 협업연구실'을 추가 개소하고 27일 오전 현판식을 개최했다. 권인소 전기및전자공학부 교수의 '비전중심 범용인공지능 연구실', 김천곤 항공우주공학과 교수의 '우주·극한 환경 재료 및 차세대 공정 연구실', 변재형 수리과학과 교수의 '편미분방정식 통합 연구실'이 새롭게 문을 연다. 초세대 협업연구실은 은퇴를 앞둔 교수가 오랜 시간 축적해 온 학문의 성과와 노하우를 후배 교수와 협업하며 이어가는 우리 대학의 독자적인 연구제도다. 2018년 도입한 이후 지난해 말까지 7개 연구실을 운영하고 있으며, 이번 추가 개소로 총 10개의 초세대 협업연구실을 보유하게 됐다. 특히 권인소, 김천곤 책임교수는 65세 은퇴 후 70세까지 강의와 연구 논문 지도를 이어가는 정년후 교수의 신분으로 초세대 협업연구실을 개소했다. 권인소 교수가 책임교수를 맡은 '비전중심 범용인공지능 연구실'은 같은 학과 김준모 교수 협업하고 딥러닝 분야의 신임 교수가 추후 합류
2024-02-27우리 대학이 5일 오후 '생성AI와 헬스케어의 미래' 워크숍을 대전 본원에서 개최한다. KAIST 디지털 바이오헬스 AI연구센터(센터장 예종철)의 개소를 기념하기 위해 마련된 이번 워크숍에서는 디지털 헬스케어 분야에서 활용되는 인공지능의 최신 연구 동향과 응용 사례가 공유된다. '의료 데이터의 인공지능 활용' 세션에서는 콴젱 리(Quanzheng Li) 하버드의대 교수가 '의학 분야의 기초모델 : 대형 언어 모델과 대형 비전 모델'을 주제로 기조강연한다. 리 교수는 하버드 대학교 의과대학에서 진행되고 있는 대형 언어 모델* 및 대형 멀티모달리티 모델** 연구를 소개한다. 또한, 이러한 최첨단 기술들이 의료 데이터 해석과 활용 현장에 가져다준 혁신적인 변화를 임상 사례를 들어 설명한다. * 대형 언어 모델(Large Language Model, LLM): 방대한 텍스트 데이터로 훈련된 인공지능 모델 ** 대형 멀티모달 모델(Large Multi-modal Mo
2024-02-05