< (왼쪽부터) 생명과학과 김상규 교수, 김재철AI대학원 황성주 교수, 생명과학과 김태인 석박사통합과정, 김재철AI대학원 이슬 석박사통합과정 >
식물은 고착생활을 하면서 환경 스트레스에 대응하기 위해 진화적으로 다양하고 복잡한 천연물을 만들고 있다. 이 천연물들은 인류의 생존에도 필수적인 역할을 하고 있는데 미국식품의약국(FDA) 승인 저분자 약물의 30% 이상이 식물 천연물에 기초하고 있다는 사실이 이를 증명하고 있다. 한국 연구진이 딥러닝을 활용, 천연물의 역-생합성 경로를 예측하는 모델을 제시해 천연물 기반 의약품 대량 생산에 활용될 수 있도록 해 화제다.
우리 대학 생명과학과 김상규 교수 연구팀과 김재철AI대학원 황성주 교수 연구팀의 공동연구를 통해 천연물 생합성 경로를 예측하는 딥러닝 모델을 개발하고 부산대학교 박정빈 교수 연구팀과 협업을 통해 관심있는 누구나 모델을 활용할 수 있도록 인터넷 웹사이트(readretro.net)를 구축했다고 14일 밝혔다.
천연물 활용 및 대량 생산을 위해서는 생합성 경로를 밝히는 것이 필수적이다. 하지만 복잡한 구조를 가진 많은 약용 천연물의 생합성 경로가 잘 밝혀져 있지 않아 현재는 식물로부터 직접 추출해 사용하고 있다. 생합성 경로 연구는 도전적이지만 이를 밝히고 생합성 효소를 찾을 수 있다면 천연물의 활용 가치를 증진할 수 있다.
식물 천연물 생합성 경로 연구의 첫 단계는 식물이 어떻게 물질을 합성하는지 그 경로를 역추적(역합성 경로를 제시)하는 것으로 시작된다. 공동연구팀은 딥러닝을 활용해 천연물의 역-생합성 경로를 예측하는 모델을 제시했다. 이번 연구에서 연구팀은 발전된 역합성 모델과 생화학적 직관을 결합해 성공적으로 천연물 생합성 경로 예측을 수행하는 인공지능 모델을 개발했다.
< 그림 1. 리드레트로(READRetro)를 활용해 예측한 천연물 생합성 경로. 천연물 생합성 연구에서 주목받고 있는 catharanthine, tarbersonine을 비롯한 다양한 천연물의 생합성 경로를 성공적으로 예측하였다. >
연구팀은 개발한 인공지능의 이름을 ‘역합성을 읽어내는 모델’이라는 뜻을 담아 ‘리드레트로(READRetro)’라고 명명했다. 이 모델은 천연물 역합성을 예측하는 인공지능 모델 중 최고의 성능을 보이는 것으로 확인되었고 이를 개별 연구자들이 쉽게 활용할 수 있도록 구현했다는 데 의미를 가진다.
김상규 교수는 “식물이 어떻게 복잡한 천연물을 만들 수 있게 되었는지 이해하는 기초 연구에서부터 천연물 기반 의약품을 대량으로 생산하기 위한 합성생물학 연구 등에 활용이 기대된다. 추후 합성 경로를 매개하는 효소를 예측하거나 거대 분자의 역합성 예측 정확도를 높이는 연구를 실시할 계획이다” 라고 말했다. 또한 김 교수는 “이번 연구는 2022년 KAIST 인공지능연구원에서 주최한 멜팅 팟(Melting pot) 세미나에서 저와 황성주 교수가 발제자와 토론자로 만난 인연으로 시작됐다. KAIST가 표방하는 융합이 생화학자와 전산학자의 힘을 합쳐 이끌어 낸 좋은 연구로 큰 의미를 갖는다고 생각한다”고 강조했다.
< 그림 2. 웹으로 구현된 리드레트로(READRetro). readretro.net 웹 페이지를 활용해 누구든 관심있는 천연물의 생합성 경로를 다양한 옵션으로 예측할 수 있다. >
생명과학과 김태인 석박사통합과정과 김재철AI대학원 이슬 석박사통합과정이 공동 제1 저자로 참여한 이번 연구 결과는 국제 학술지 ‘뉴 파이톨로지스트(New Phytologist)'에 출판됐다. (논문명 : READRetro: natural product biosynthesis predicting with retrieval-augmented dual-view retrosynthesis).
한편 이번 연구는 KAIST POST-AI, 한국연구재단, 과학기술정보통신부 등의 지원을 받아 수행됐다.
최근 생성형 인공지능은 텍스트, 이미지, 비디오 생성 등 다양한 분야에서 널리 사용되고 있지만, 소재 개발 분야에서는 아직 충분히 활용되지 못하고 있다. 이러한 상황에서 KAIST 연구진이 구조적 복잡성을 지닌 다공성 소재를 생성하는 인공지능 모델을 개발하여, 사용자가 원하는 특성의 소재를 선택적으로 생성할 수 있게 되었다. 우리 대학 생명화학공학과 김지한 교수 연구팀이 원하는 물성을 가진 금속 유기 골격체(Metal-Organic Frameworks, MOF)를 생성하는 인공지능 모델을 개발했다고 23일 밝혔다. 김지한 교수 연구팀이 개발한 생성형 인공지능 모델인 모퓨전(MOFFUSION)은 금속 유기 골격체의 구조를 보다 효율적으로 표현하기 위해, 이들의 공극 구조를 3차원 모델링 기법을 활용해 나타내는 혁신적인 접근 방식을 채택했다. 이 기법을 통해 기존 모델들에서 보고된 낮은 구조 생성 효율을 81.7%로 크게 향상시켰다. 또한, 모퓨전은 생성 과정에서 사용자
2025-01-23기존 컴퓨터 시스템은 데이터 처리 장치와 저장 장치가 분리돼 있어, 인공지능처럼 복잡한 데이터를 처리하기에는 효율적이지 않다. KAIST 연구팀은 우리 뇌의 정보 처리 방식과 유사한 멤리스터 기반 통합 시스템을 개발했다. 이제 원격 클라우드 서버에 의존하지 않고 의심스러운 활동을 즉시 인식하는 스마트 보안 카메라부터 건강 데이터를 실시간으로 분석할 수 있는 의료기기까지 다양한 분야에 적용될 수 있게 되었다. 우리 대학 전기및전자공학부 최신현 교수, 윤영규 교수 공동연구팀이 스스로 학습하고 오류를 수정할 수 있는 차세대 뉴로모픽 반도체 기반 초소형 컴퓨팅 칩을 개발했다고 17일 밝혔다. 연구팀이 개발한 이 컴퓨팅 칩의 특별한 점은 기존 뉴로모픽 소자에서 해결이 어려웠던 비이상적 특성에서 발생하는 오류를 스스로 학습하고 수정할 수 있다는 것이다. 예를 들어, 영상 스트림을 처리할 때 칩은 움직이는 물체를 배경에서 자동으로 분리하는 법을 학습하며 시간이 지날수록 이 작업을 더 잘 수
2025-01-22KAIST 설명가능 인공지능연구센터(센터장 최재식 교수)는 별도의 복잡한 설정이나 전문 지식 없이도 손쉽게 AI모델에 대한 설명성을 제공할 수 있는 플러그앤플레이(Plug-and-Play) 방식의 설명가능 인공지능 프레임워크를 개발해, 이를 27일 오픈소스로 공개했다. 설명가능 인공지능(Explainable AI, 이하 XAI)이란 AI 시스템의 결과에 영향을 미치는 주요 요소를 사람이 이해할 수 있는 형태로 설명해주는 제반 기술을 말한다. 최근 딥러닝 모델과 같이 내부 의사 결정 프로세스가 불투명한 블랙박스 AI 모델에 대한 의존도가 커지면서 설명가능 인공지능 분야에 대한 관심과 연구가 증가했다. 그러나 지금까지는 연구자와 기업 실무자들이 설명가능 인공지능 기술을 활용하는 것이 몇 가지 이유로 쉽지 않았다. 우선, 딥러닝 모델의 유형별로 적용 가능한 설명 알고리즘들이 서로 달라서 해당 모델에 적용할 수 있는 설명 알고리즘이 무엇인지 알기 위해서는 XAI에 대해 어느 정도 사
2024-12-27“케이던스 사의 통 큰 기부에 감사드리며, 대한민국 AI 인재 100만 명 양성이라는 원대한 목표 달성과 세상을 혁신할 반도체 연구 실현에 앞장서겠습니다”(이광형 총장) 우리 대학은 미국 소프트웨어 기업인 케이던스 디자인 시스템즈 코리아(Cadence Design Systems, 이하 케이던스)가 반도체 설계 특화 장비인 ‘케이던스 팔라디움 제트원(Cadence Palladium Z1)’*을 우리 대학에 기증한다고 밝혔다. *팔라디움 제트원: 반도체 설계 검증을 위한 초고성능 에뮬레이터 장비로, 하드웨어-소프트웨어 검증 및 디버깅 작업을 1개의 랙 당 5.76억 게이트까지 대용량으로 구현 가능함. 동 장비를 통해 SoC(System On Chip) 개발 단계에서 설계 검증을 더 원활히 수행할 수 있음. 케이던스는 1995년 반도체설계교육센터(IDEC) 설립 이후 우리 대학에 EDA(Electronic Design Automati
2024-12-17국내 최대의 설명가능 인공지능(XAI) 연구조직인 KAIST 설명가능 인공지능연구센터(센터장 KAIST 최재식 교수)는 11월 5일부터 22일까지 7회에 걸쳐 설명가능 인공지능 튜토리얼 시리즈를 성공적으로 개최했다. 이번 튜토리얼에는 학생, 연구자, 기업 실무자 등 누적인원 총 530여 명이 참여하여 설명가능 인공지능 기술에 대한 높은 관심과 수요를 보여주었다. 행사는 XAI의 주요 알고리즘부터 최신 연구 주제까지, 총 16개 세션 발표로 진행되었다. 개회 강연으로 ‘설명가능 인공지능 최신 연구 동향’에 대해 최재식 교수가 발표하였고, 이어서 KAIST 설명가능 인공지능연구센터 소속 석·박사 과정 연구원들이 △주요 XAI 알고리즘 △XAI 알고리즘의 평가기법 △거대 언어모델(LLM), 이미지 생성모델, 시계열 데이터에 대한 설명성 △ XAI Framework, 의료 도메인 적용 사례를 주제로 발표했다. 튜토리얼 마지막날에는 독일 Fraunho
2024-11-29