< (왼쪽부터) 물리학과 박용근 교수, 김건 석박사통합과정, 삼성서울병원 이남용 교수 >
우리 대학 물리학과 박용근 교수 연구팀이 홀로그래피 현미경과 인공지능을 이용한 신속 박테리아 병원균 식별 기술을 개발했다고 27일 밝혔다.
병원균의 조기 식별은 감염질환 치료에 필수적이다. 치명적인 상태로 진행되기 전에 감염균에 맞는 효과적인 항생제의 선택과 투여가 가능해지기 때문이다. 하지만 현재의 일상적 병원균 식별은 통상 수일이 소요된다. 이로 인해 감염 초기 식별 결과 없이 실증적인 처방으로 항생제를 투여하는 사례가 빈번하며, 이로 인해 패혈증의 경우 치명률이 50%에 달하며 항생제 남용으로 인한 슈퍼박테리아 문제도 발생한다.
기존 방법으로 병원균 식별이 오래 걸리는 원인은 긴 박테리아 배양 시간이다. 질량 분석기로 대표되는 식별 기술들은 일정량 이상의 박테리아 표본이 확보되어야 균종과 관련된 분자적 신호를 검출할 수 있다. 이로 인해, 환자에서 추출한 시편을 하루 이상 배양해야만 검출이 될 정도의 박테리아 개수가 확보된다.
광학 분야의 저명 학술지인 `빛: 과학과 응용(Light: Science & Applications), (IF = 17.782)'에 게재된 이번 연구(논문명: Rapid species identification of pathogenic bacteria from a minute quantity exploiting three-dimensional quantitative phase imaging and artificial neural network)에서 박용근 교수 연구팀은 3차원 홀로그래피 현미경과 인공지능 알고리즘을 활용해서 단일 세포 수준의 표본으로도 병원균의 균종을 정확히 알아낼 수 있음을 입증했다.
< 그림 1. 아이디어 모식도 >
< 그림 2. 총 19가지 주요 혈액감염균의 균종별 대표적인 굴절률 영상 >
홀로그래피 현미경으로 측정되는 3차원 굴절률 영상 정보에 내재된 균종과 관련된 특성을 인공지능 알고리즘으로 학습해 종을 구분하는 것이 핵심 아이디어다. 연구팀은 종별로 500개 이상의 박테리아의 3차원 굴절률 영상을 측정했고, 이를 인공지능 신경망을 통해 학습시켰다.
연구팀은 개발한 방법을 이용해 주요한 혈액 감염균을 신속하게 식별함으로써 실제 진단에도 응용될 가능성을 검증했다. 구체적으로 그람 음성 및 양성, 구균 및 간균을 모두 포함한 총 19가지 균종으로 혈액 감염 사례의 90% 이상의 원인이 되는 균들이다. 한 개의 병원균 혹은 병원균 덩어리를 측정한 단일 3차원 굴절률 영상에서는 약 82.5%의 정확도로 균종 판별이 가능했다. 연구팀은 또한 여러 영상을 확보할 수 있을 때 정확도가 증가해, 7개의 박테리아 영상이 확보된다면 99.9%의 정확도를 얻을 수 있었다.
연구진의 책임자이자 논문의 교신저자인 박용근 교수는 "홀로그래피 현미경의 세포 감별 능력을 인공지능으로 극대화해 감염 진단 기술로서의 가능성을 확인한 것이 의미ˮ라고 말했다. 제1 저자인 물리학과 김건 박사과정 학생은 "100,000분의 1 수준의 표본량으로도 질량 분석기의 균종 검출률과 비슷한 정확도를 얻었고 환자 시편에서 다양한 병원균을 식별하는 플랫폼 기술이 될 것으로 기대된다ˮ라고 덧붙였다.
< 그림 3. 19가지 혈액감염균 식별의 단일 영상 기반 맹검 결과 >
< 그림 4. 연구 개념도 >
이번 연구는 KAIST-삼성서울병원-토모큐브 팀의 수년간의 공동 연구를 통해 진행됐다. 물리학과 박용근 교수 연구팀의 기술에 다양한 기관의 경험과 비전을 반영함으로써 완성할 수 있었다. 삼성서울병원 진단검사의학과 이남용 교수, 진단검사의학과 허희재 교수, 감염내과 정두련 교수 연구팀, 서울성모병원 진단검사의학과 유인영 교수, 분당 차병원 응급의학과 김규석 교수, 우리 대학 나노과학기술대학원 정현정 교수 등 다양한 분야와 기관이 모여, 실험적 검증을 효과적으로 진행할 수 있었다. 또한 KAIST 교원 창업 기업인 ㈜토모큐브의 3차원 홀로그래피 기술 지원도 필수적인 역할을 했다.
한편 이번 연구는 한국연구재단 창의연구사업, 과학기술일자리진흥원의 지원을 받아 수행됐다.
최근 생성형 인공지능은 텍스트, 이미지, 비디오 생성 등 다양한 분야에서 널리 사용되고 있지만, 소재 개발 분야에서는 아직 충분히 활용되지 못하고 있다. 이러한 상황에서 KAIST 연구진이 구조적 복잡성을 지닌 다공성 소재를 생성하는 인공지능 모델을 개발하여, 사용자가 원하는 특성의 소재를 선택적으로 생성할 수 있게 되었다. 우리 대학 생명화학공학과 김지한 교수 연구팀이 원하는 물성을 가진 금속 유기 골격체(Metal-Organic Frameworks, MOF)를 생성하는 인공지능 모델을 개발했다고 23일 밝혔다. 김지한 교수 연구팀이 개발한 생성형 인공지능 모델인 모퓨전(MOFFUSION)은 금속 유기 골격체의 구조를 보다 효율적으로 표현하기 위해, 이들의 공극 구조를 3차원 모델링 기법을 활용해 나타내는 혁신적인 접근 방식을 채택했다. 이 기법을 통해 기존 모델들에서 보고된 낮은 구조 생성 효율을 81.7%로 크게 향상시켰다. 또한, 모퓨전은 생성 과정에서 사용자
2025-01-23기존 컴퓨터 시스템은 데이터 처리 장치와 저장 장치가 분리돼 있어, 인공지능처럼 복잡한 데이터를 처리하기에는 효율적이지 않다. KAIST 연구팀은 우리 뇌의 정보 처리 방식과 유사한 멤리스터 기반 통합 시스템을 개발했다. 이제 원격 클라우드 서버에 의존하지 않고 의심스러운 활동을 즉시 인식하는 스마트 보안 카메라부터 건강 데이터를 실시간으로 분석할 수 있는 의료기기까지 다양한 분야에 적용될 수 있게 되었다. 우리 대학 전기및전자공학부 최신현 교수, 윤영규 교수 공동연구팀이 스스로 학습하고 오류를 수정할 수 있는 차세대 뉴로모픽 반도체 기반 초소형 컴퓨팅 칩을 개발했다고 17일 밝혔다. 연구팀이 개발한 이 컴퓨팅 칩의 특별한 점은 기존 뉴로모픽 소자에서 해결이 어려웠던 비이상적 특성에서 발생하는 오류를 스스로 학습하고 수정할 수 있다는 것이다. 예를 들어, 영상 스트림을 처리할 때 칩은 움직이는 물체를 배경에서 자동으로 분리하는 법을 학습하며 시간이 지날수록 이 작업을 더 잘 수
2025-01-22KAIST 설명가능 인공지능연구센터(센터장 최재식 교수)는 별도의 복잡한 설정이나 전문 지식 없이도 손쉽게 AI모델에 대한 설명성을 제공할 수 있는 플러그앤플레이(Plug-and-Play) 방식의 설명가능 인공지능 프레임워크를 개발해, 이를 27일 오픈소스로 공개했다. 설명가능 인공지능(Explainable AI, 이하 XAI)이란 AI 시스템의 결과에 영향을 미치는 주요 요소를 사람이 이해할 수 있는 형태로 설명해주는 제반 기술을 말한다. 최근 딥러닝 모델과 같이 내부 의사 결정 프로세스가 불투명한 블랙박스 AI 모델에 대한 의존도가 커지면서 설명가능 인공지능 분야에 대한 관심과 연구가 증가했다. 그러나 지금까지는 연구자와 기업 실무자들이 설명가능 인공지능 기술을 활용하는 것이 몇 가지 이유로 쉽지 않았다. 우선, 딥러닝 모델의 유형별로 적용 가능한 설명 알고리즘들이 서로 달라서 해당 모델에 적용할 수 있는 설명 알고리즘이 무엇인지 알기 위해서는 XAI에 대해 어느 정도 사
2024-12-27“케이던스 사의 통 큰 기부에 감사드리며, 대한민국 AI 인재 100만 명 양성이라는 원대한 목표 달성과 세상을 혁신할 반도체 연구 실현에 앞장서겠습니다”(이광형 총장) 우리 대학은 미국 소프트웨어 기업인 케이던스 디자인 시스템즈 코리아(Cadence Design Systems, 이하 케이던스)가 반도체 설계 특화 장비인 ‘케이던스 팔라디움 제트원(Cadence Palladium Z1)’*을 우리 대학에 기증한다고 밝혔다. *팔라디움 제트원: 반도체 설계 검증을 위한 초고성능 에뮬레이터 장비로, 하드웨어-소프트웨어 검증 및 디버깅 작업을 1개의 랙 당 5.76억 게이트까지 대용량으로 구현 가능함. 동 장비를 통해 SoC(System On Chip) 개발 단계에서 설계 검증을 더 원활히 수행할 수 있음. 케이던스는 1995년 반도체설계교육센터(IDEC) 설립 이후 우리 대학에 EDA(Electronic Design Automati
2024-12-17국내 최대의 설명가능 인공지능(XAI) 연구조직인 KAIST 설명가능 인공지능연구센터(센터장 KAIST 최재식 교수)는 11월 5일부터 22일까지 7회에 걸쳐 설명가능 인공지능 튜토리얼 시리즈를 성공적으로 개최했다. 이번 튜토리얼에는 학생, 연구자, 기업 실무자 등 누적인원 총 530여 명이 참여하여 설명가능 인공지능 기술에 대한 높은 관심과 수요를 보여주었다. 행사는 XAI의 주요 알고리즘부터 최신 연구 주제까지, 총 16개 세션 발표로 진행되었다. 개회 강연으로 ‘설명가능 인공지능 최신 연구 동향’에 대해 최재식 교수가 발표하였고, 이어서 KAIST 설명가능 인공지능연구센터 소속 석·박사 과정 연구원들이 △주요 XAI 알고리즘 △XAI 알고리즘의 평가기법 △거대 언어모델(LLM), 이미지 생성모델, 시계열 데이터에 대한 설명성 △ XAI Framework, 의료 도메인 적용 사례를 주제로 발표했다. 튜토리얼 마지막날에는 독일 Fraunho
2024-11-29