본문 바로가기
대메뉴 바로가기
KAIST
뉴스
유틸열기
홈페이지 통합검색
-
검색
ENGLISH
메뉴 열기
%EC%84%A4%EB%AA%85%EA%B0%80%EB%8A%A5+%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5
최신순
조회순
KCC 설명가능 인공지능(XAI) 워크숍 2024 개최
우리 대학 설명가능인공지능 연구센터(센터장 최재식)가 'KCC 설명가능 인공지능(XAI) 워크숍 2024'를 지난달 27일 제주 국제컨벤션센터에서 개최했다.올해 3월 EU의 인공지능법이 최종 통과된 후 인공지능 시스템에 대한 글로벌 규제가 현실화 되고 인공지능 모델의 투명성 향상과 규제 준수를 지원할 수 있는 설명가능 인공지능(eXplainable Artificial Intelligence, 약칭 XAI) 기술에 대한 관심이 높아지고 있다. 이와 같은 시대적 흐름에 대응하기 위해 개최된 이번 워크숍에는 관련 분야에서 활발히 연구 중인 국내 연구기관과 기업 관계자들이 교류하며 최신 연구 동향을 공유했다.서홍석 교수(고려대)와 박천음 교수(한밭대)는 각각 '멀티모달 대화형 인공지능 관련 연구 동향'과 'Multimodal Counterfactual reasoning을 이용한 자연어 해석 연구 동향'을 주제로 최근 활발한 연구가 진행 중인 멀티모달 인공지능 모델 연구 및 해석 동향을 강연했다.또한, 오순영 공동의장((사)과실연 미래포럼)은 '금융 및 은행에서의 설명가능 인공지능'을 주제로 금융 및 의료 분야에 설명가능 인공지능이 활용된 사례를 발표하고 김진우 대표(㈜HAII)의 '디지털 헬스에서의 설명가능 인공지능의 역할: 리피치* 사례를 중심으로' 강연이 진행됐다. *리피치(Repeech): 마비말장애 디지털 치료기기 이와 함께, 설명가능 인공지능 분야의 국제 표준화 그룹 리더인 이재호 교수(서울시립대)가 '프론티어 인공지능 신뢰성 기술과 정책'에 대해 발표했다. 이번 워크숍에서는 총 38편의 최신 연구논문이 발표됐다. 기존 설명가능 인공지능 알고리즘의 성능을 개선한 새로운 알고리즘, 대형언어모델(Large Language Model, 약칭 LLM) 등 생성형 AI모델에 대한 해석성 및 신뢰성 제공 기법, 도메인별 XAI 적용 사례에 대한 연구 내용이 소개됐다. 최우수논문상은 우리 대학 전기및전자공학부 노용만 교수팀(이병관, 박범찬, 김채원)의 '물체 수준 시각 프롬프트를 활용한 효율적인 대형언어시각모델'이 수상했다. 대형언어시각 모델(Large Language and Vision Model, LLVM)에서 모델 크기를 키우는 대신 물체 수준 이미지에서 이해가 가능한 새로운 기법을 도입해 인공지능 모델 성능을 향상시켰을 뿐만 아니라 인공지능 모델의 의사결정 과정에 대한 해석가능성을 크게 높였다는 점을 인정받았다. 행사를 주관한 설명가능인공지능 연구센터 최재식 센터장은 "이번 워크숍이 인공지능 기술의 투명성과 신뢰성을 높이는 데 중요한 역할을 하는 설명가능 인공지능(XAI)에 대한 최신 연구 동향을 교류하는 구심점이 되어, 다양한 산업 분야에 설명가능 인공지능(XAI) 기술을 적용하는 계기가 되길 바란다"라고 밝혔다.이번 행사는 정보통신기획평가원의 '사람중심 인공지능 핵심원천기술개발사업(과제명: 사용자 맞춤형 플러그앤플레이 방식의 설명가능성 제공 기술 개발)' 지원으로 개최되었다. 이번 워크숍에 대한 자세한 정보는 우리 대학 설명가능 인공지능센터 홈페이지에서 확인할 수 있다.(https://xai.kaist.ac.kr/xai-workshop/2024/)
2024.07.08
조회수 1349
설명해주는 인공지능 구현을 위한 초저전력 하드웨어 기술 개발
우리 대학 신소재공학과 김경민 교수 연구팀이 다양한 멤리스터* 소자를 이용한 설명 가능한 인공지능 (XAI) 시스템을 구현하는데 성공했다고 25일 밝혔다. *멤리스터 (Memristor): 메모리 (Memory)와 저항 (Resistor)의 합성어로, 입력 신호에 따라 소자의 저항 상태가 변하는 소자 최근 인공지능 (AI) 기술의 급속한 발전이 다양한 분야에서 성과를 이루고 있다. 이미지 인식, 음성 인식, 자연어 처리 등에서 AI의 적용 범위가 확대되며 우리의 일상생활에 깊숙이 자리 잡고 있다. AI는 인간의 뉴런 구조를 모방해 만든 ‘인공신경망’을 기반으로, 적게는 수백만 개에서 많게는 수조 개에 달하는 매개변수를 통해 데이터를 분석하고 의사 결정을 내린다. 그러나 이 많은 매개변수로 인해 AI 모델의 동작 원리를 정확하게 이해하기 어렵고, 이는 통상적으로 블랙박스에 비유되곤 한다. AI가 어떤 기준으로 결정을 내는지 알 수 없다면, AI에 결함이나 오작동이 발생했을 때 이를 해결하기 어렵고, 이로 인해 AI가 적용되는 다양한 산업 분야에서 문제가 발생할 수 있다. 이에 대한 해답으로 제시된 것이 바로 설명 가능한 인공지능 (XAI)이다. XAI는 AI가 어떠한 결정을 내렸을 때, 그 근거가 무엇인지를 사람이 이해할 수 있도록 만드는 기술이다. <그림1> 생성형 AI 등 점점 더 복잡해지는 AI 기술의 등장으로 개발자, 사용자, 규제 기관 모두에게 XAI 시스템의 필요성이 강조되고 있다. 하지만, XAI는 일반적으로 엄청난 양의 데이터 처리를 요구하기 때문에, 이를 보다 효율적으로 동작할 수 있는 하드웨어 개발이 필요한 상황이다. 김경민 교수 연구팀은 교란(Perturbation) 기반 XAI 시스템을 서로 다른 멤리스터 소자를 이용해 하드웨어로 구현하는데 성공하였다. 세 가지 멤리스터 소자는 각각 휘발성 저항변화 특성, 아날로그 비휘발성 저항변화 특성, 아날로그 휘발성 저항변화 특성을 가지며 <그림 2>, 각 소자는 교란 기반 XAI 시스템의 필수적인 기능인 입력 데이터 교란, 벡터곱 연산, 그리고 신호 통합 기능을 수행한다. 연구팀은 개발된 XAI 하드웨어를 평가하기 위해, 흑백 패턴을 인식하는 신경망을 설계하였다. 여기에 개발한 XAI 하드웨어 시스템으로 설계한 신경망이 흑백 패턴을 인식하는 근거를 설명하였다. <그림3> 그 결과 기존 CMOS 기술 기반 시스템 대비 에너지 소비를 24배 감소하여 AI 판단의 이유를 제공하는 것을 확인하였다. <그림4> KAIST 김경민 교수는 “AI 기술이 일상화되면서 AI 동작의 투명성 및 해석가능성이 중요해지고 있는데, 이번 연구는 다양한 종류의 멤리스터 소자를 이용해 AI 판단에 대한 근거를 제공하는 XAI 하드웨어 시스템을 구현할 수 있었다는 점에 큰 의의가 있다”며 “이 연구는 AI 의사 결정에 도달하는 과정을 이해하기 쉽게 설명을 제공함으로써 AI 시스템의 신뢰성 향상에 기여할 수 있어, 향후 의료, 금융, 법률 등 민감한 정보를 다루는 AI 기반 서비스에 적용될 수 있을 것으로 기대된다”고 밝혔다. 이번 연구는 KAIST 신소재공학과 송한찬 박사과정, 박우준 박사과정 학생이 공동 제1 저자로 참여했으며, 국제 학술지 ‘어드밴스드 머티리얼즈(Advanced Materials, IF: 29.4)’에 03월 20일 字 온라인 게재됐으며, 한국연구재단 중견연구사업, 차세대지능형반도체기술개발사업, PIM인공지능반도체핵심기술개발사업, 나노종합기술원 및 KAIST 도약연구사업의 지원을 받아 수행됐다. (논문명: Memristive Explainable Artificial Intelligence Hardware, 논문링크: https://doi.org/10.1002/adma.202400977)
2024.03.25
조회수 2783
<<
첫번째페이지
<
이전 페이지
1
>
다음 페이지
>>
마지막 페이지 1