우리 대학 설명가능 인공지능연구센터(센터장 최재식)가 'KCC 설명가능 인공지능(XAI) 워크숍 2024'를 지난달 27일 제주 국제컨벤션센터에서 개최했다.
올해 3월 EU의 인공지능법이 최종 통과된 후 인공지능 시스템에 대한 글로벌 규제가 현실화 되고 인공지능 모델의 투명성 향상과 규제 준수를 지원할 수 있는 설명가능 인공지능(eXplainable Artificial Intelligence, 약칭 XAI) 기술에 대한 관심이 높아지고 있다. 이와 같은 시대적 흐름에 대응하기 위해 개최된 이번 워크숍에는 관련 분야에서 활발히 연구 중인 국내 연구기관과 기업 관계자들이 교류하며 최신 연구 동향을 공유했다.
서홍석 교수(고려대)와 박천음 교수(한밭대)는 각각 '멀티모달 대화형 인공지능 관련 연구 동향'과 'Multimodal Counterfactual reasoning을 이용한 자연어 해석 연구 동향'을 주제로 최근 활발한 연구가 진행 중인 멀티모달 인공지능 모델 연구 및 해석 동향을 강연했다.
또한, 오순영 공동의장((사)과실연 미래포럼)은 '금융 및 은행에서의 설명가능 인공지능'을 주제로 금융 및 의료 분야에 설명가능 인공지능이 활용된 사례를 발표하고 김진우 대표(㈜HAII)의 '디지털 헬스에서의 설명가능 인공지능의 역할: 리피치* 사례를 중심으로' 강연이 진행됐다. *리피치(Repeech): 마비말장애 디지털 치료기기
이와 함께, 설명가능 인공지능 분야의 국제 표준화 그룹 리더인 이재호 교수(서울시립대)가 '프론티어 인공지능 신뢰성 기술과 정책'에 대해 발표했다.
이번 워크숍에서는 총 38편의 최신 연구논문이 발표됐다. 기존 설명가능 인공지능 알고리즘의 성능을 개선한 새로운 알고리즘, 대형언어모델(Large Language Model, 약칭 LLM) 등 생성형 AI모델에 대한 해석성 및 신뢰성 제공 기법, 도메인별 XAI 적용 사례에 대한 연구 내용이 소개됐다.
최우수논문상은 우리 대학 전기및전자공학부 노용만 교수팀(이병관, 박범찬, 김채원)의 '물체 수준 시각 프롬프트를 활용한 효율적인 대형언어시각모델'이 수상했다. 대형언어시각 모델(Large Language and Vision Model, LLVM)에서 모델 크기를 키우는 대신 물체 수준 이미지에서 이해가 가능한 새로운 기법을 도입해 인공지능 모델 성능을 향상시켰을 뿐만 아니라 인공지능 모델의 의사결정 과정에 대한 해석가능성을 크게 높였다는 점을 인정받았다.
행사를 주관한 설명가능 인공지능연구센터 최재식 센터장은 "이번 워크숍이 인공지능 기술의 투명성과 신뢰성을 높이는 데 중요한 역할을 하는 설명가능 인공지능(XAI)에 대한 최신 연구 동향을 교류하는 구심점이 되어, 다양한 산업 분야에 설명가능 인공지능(XAI) 기술을 적용하는 계기가 되길 바란다"라고 밝혔다.
이번 행사는 정보통신기획평가원의 '사람중심 인공지능 핵심원천기술개발사업(과제명: 사용자 맞춤형 플러그앤플레이 방식의 설명가능성 제공 기술 개발)' 지원으로 개최되었다. 이번 워크숍에 대한 자세한 정보는 우리 대학 설명가능 인공지능센터 홈페이지에서 확인할 수 있다.(https://xai.kaist.ac.kr/xai-workshop/2024/)
KAIST 설명가능 인공지능연구센터(센터장 최재식 교수)는 별도의 복잡한 설정이나 전문 지식 없이도 손쉽게 AI모델에 대한 설명성을 제공할 수 있는 플러그앤플레이(Plug-and-Play) 방식의 설명가능 인공지능 프레임워크를 개발해, 이를 27일 오픈소스로 공개했다. 설명가능 인공지능(Explainable AI, 이하 XAI)이란 AI 시스템의 결과에 영향을 미치는 주요 요소를 사람이 이해할 수 있는 형태로 설명해주는 제반 기술을 말한다. 최근 딥러닝 모델과 같이 내부 의사 결정 프로세스가 불투명한 블랙박스 AI 모델에 대한 의존도가 커지면서 설명가능 인공지능 분야에 대한 관심과 연구가 증가했다. 그러나 지금까지는 연구자와 기업 실무자들이 설명가능 인공지능 기술을 활용하는 것이 몇 가지 이유로 쉽지 않았다. 우선, 딥러닝 모델의 유형별로 적용 가능한 설명 알고리즘들이 서로 달라서 해당 모델에 적용할 수 있는 설명 알고리즘이 무엇인지 알기 위해서는 XAI에 대해 어느 정도 사
2024-12-27우주 방사선 등 미세한 에너지를 검출하는 우주용 센서나, 양자컴퓨터에 설치된 초전도 큐비트(qubit)의 양자 상태를 안정적으로 유지하기 위해서는 온도를 매우 낮게 유지해 열적 교란을 최소화하여야 한다. 우리 연구진이 값비싼 냉매를 사용하지 않고 소형의 크기로 초저온을 달성할 수 있는 냉각장치를 개발하는 데 성공했다. 우리 대학 기계공학과 정상권 교수 연구팀이 세계 최초로 자기장 변화를 이용해 절대온도 0도에 가까운 온도를 구현하는 방식의 단열 탈자 냉동기와 흡착식 냉동기*를 통합한 구조를 제안하고 이를 구현, 절대온도 0.3 K(섭씨 -272.85도)의 냉각 온도를 달성했다고 19일 밝혔다. *훕착식 냉동기: 활성탄 등 고체인 흡착제 표면에 기체가 달라붙는 흡착(adsorption) 현상을 이용하여, 흡착제의 온도를 조절하여 액체를 감압시켜 냉각 효과를 생성하는 냉각 방식 이러한 초저온 냉각을 위해, 일반적으로는 동위원소인 헬륨-3과 헬륨-4의 혼합물을 이용한 희석
2024-12-19국내 최대의 설명가능 인공지능(XAI) 연구조직인 KAIST 설명가능 인공지능연구센터(센터장 KAIST 최재식 교수)는 11월 5일부터 22일까지 7회에 걸쳐 설명가능 인공지능 튜토리얼 시리즈를 성공적으로 개최했다. 이번 튜토리얼에는 학생, 연구자, 기업 실무자 등 누적인원 총 530여 명이 참여하여 설명가능 인공지능 기술에 대한 높은 관심과 수요를 보여주었다. 행사는 XAI의 주요 알고리즘부터 최신 연구 주제까지, 총 16개 세션 발표로 진행되었다. 개회 강연으로 ‘설명가능 인공지능 최신 연구 동향’에 대해 최재식 교수가 발표하였고, 이어서 KAIST 설명가능 인공지능연구센터 소속 석·박사 과정 연구원들이 △주요 XAI 알고리즘 △XAI 알고리즘의 평가기법 △거대 언어모델(LLM), 이미지 생성모델, 시계열 데이터에 대한 설명성 △ XAI Framework, 의료 도메인 적용 사례를 주제로 발표했다. 튜토리얼 마지막날에는 독일 Fraunho
2024-11-29우리 대학이 ‘대학 연구보안교육 협의회 워크숍’을 10일(목) KAIST 대전 본원에서 개최한다. 올해로 3년 차를 맞은 이번 워크숍은 대학의 연구 보안을 더욱 강화하기 위해 연구보안교육 혁신 성과를 공유하고 다양한 현장 의견을 청취하고자 마련됐다. 이날 열리는 행사에는 KAIST 등 과기특성화대학, 이화여대 등 57개 대학과 국가과학기술인력개발원(이하 KIRD), 한국과학기술기획평가원(이하 KISTEP) 관계자 등 100명이 참석한다. 우리 대학은 ‘찾아가는 연구실 보안컨설팅 사업(이하 보안컨설팅)’ 시행 성과와 ‘랩매니저(랩장) 연구보안교육’ 프로그램을 소개한다. 그리고 최근 개정된 ‘KAIST 연구보안 관리지침’ 사례를 통해 연구보안 규정의 정비·개선 방안을 발표한다. KIRD는 온라인 플랫폼을 통한 연구보안교육 콘텐츠 성과를 소개하고, 온라인 플랫폼을 활용하고자 하는
2024-10-10우리 대학 신소재공학과 김경민 교수 연구팀이 다양한 멤리스터* 소자를 이용한 설명 가능한 인공지능 (XAI) 시스템을 구현하는데 성공했다고 25일 밝혔다. *멤리스터 (Memristor): 메모리 (Memory)와 저항 (Resistor)의 합성어로, 입력 신호에 따라 소자의 저항 상태가 변하는 소자 최근 인공지능 (AI) 기술의 급속한 발전이 다양한 분야에서 성과를 이루고 있다. 이미지 인식, 음성 인식, 자연어 처리 등에서 AI의 적용 범위가 확대되며 우리의 일상생활에 깊숙이 자리 잡고 있다. AI는 인간의 뉴런 구조를 모방해 만든 ‘인공신경망’을 기반으로, 적게는 수백만 개에서 많게는 수조 개에 달하는 매개변수를 통해 데이터를 분석하고 의사 결정을 내린다. 그러나 이 많은 매개변수로 인해 AI 모델의 동작 원리를 정확하게 이해하기 어렵고, 이는 통상적으로 블랙박스에 비유되곤 한다. AI가 어떤 기준으로 결정을 내는지 알 수 없다면, AI에 결함이나
2024-03-25