본문 바로가기
대메뉴 바로가기
KAIST
뉴스
유틸열기
홈페이지 통합검색
-
검색
ENGLISH
메뉴 열기
Explainable+AI
최신순
조회순
KAIST 설명가능 인공지능 연구센터, XAI 기술 이해 저변을 넓히기 위한 튜토리얼 시리즈 개최
인공지능(AI) 기술 발전과 활용 분야가 확대되면서 다양한 AI 기반 서비스들이 등장하고 있다. 하지만 실제로는 어떤 원리로 작동하는지 이해하기 어려워 이용자 입장에서는 막연하게 느껴질 때가 많다. 이 같은 상황에서 국내 대표적인 설명가능 인공지능 연구그룹인 KAIST 설명가능 인공지능연구센터 (센터장 최재식 교수) 연구진이 지난 1월 26일부터 2월 16일까지 7회에 걸쳐 ‘설명가능 인공지능 (XAI, Explainable Artificial Intelligence)’ 알고리즘, 평가기법, 툴 등 XAI 분야의 주요 기술을 총망라하여 소개하는 튜토리얼 시리즈를 개최했다. 이 행사에는 관련 분야 연구자뿐만 아니라 AI 기술기반 제품을 개발 중인 기업(성남시 소재) 관계자 약 130여명이 신청하여 XAI에 대해 높아진 관심을 알 수 있었다. 센터장 최재식 교수는 “AI기술을 활용하는 산업에서 필수로 자리잡게 될 XAI 분야 기반 기술에 대한 교육 프로그램을 제공하여 유관 연구기관 및 기업들이 성과를 높이는 데에 기여하고자 한다”고 행사 취지를 밝혔다. 이번 KAIST XAI 튜토리얼 시리즈엔 KAIST 설명가능 인공지능연구센터 소속 석박사과정 연구원 총 11명과 센터장 최재식 교수, 그리고 초청 연사로서 박우진 교수(서울대 산업공학과), 서민준 교수(KAIST 김재철AI대학원) 등 국내외 전문가들이 강연을 담당해 △다양한 XAI 알고리즘 △XAI 알고리즘의 평가기법과 툴 △사용자 중심 XAI 인터페이스 △대규모 언어모델 기반 추론 기술로 최근 주목을 받고 있는 Chain of Thoughts 등을 주제로 발표했다. ‘설명가능 인공지능’이란 기계학습 및 딥러닝 모델이 내놓은 결과에 대해 왜 그런 결과가 나온 것인지를 사람이 이해할 수 있는 방식으로 설명해주는 기술이다. 예를 들어, 자율주행차가 주행 중 장애물을 발견하여 급정거를 했을 때 왜 그런 판단을 했는지 사람에게 설명할 수 있어야 한다. 그래야 사고 위험을 줄일 수 있고 오작동 시 책임 소재도 가릴 수 있다. 최근 딥러닝 알고리즘의 성능이 향상되고 있지만 아직까지는 사용자들이 내부 로직에 대해 이해할 수 있는 설명을 제공하는 기술까지 적용된 사례는 많지 않다. 앞으로 다양한 산업분야에서 인공지능 기술을 도입함에 따라 적용된 AI기술에 대한 신뢰성과 투명성을 담보하기 위해서 반드시 함께 제공되어야 하는 것이 설명가능 인공지능 기술이라고 볼 수 있다. KAIST 설명가능 인공지능연구센터 (http://xai.kaist.ac.kr)는 사람중심인공지능 핵심원천기술개발(R&D)사업의 일환으로 과학기술정보통신부와 정보통신기획평가원(IITP)의 후원으로 설립된 연구조직으로서 현재 KAIST 김재철AI대학원 성남연구센터에 자리잡고 있다. 튜토리얼 자료와 동영상은 KAIST 설명가능 인공지능연구센터 홈페이지에서 제공될 예정이다. (관련 문의: 김나리 교수(nari.kim@kaist.ac.kr))
2023.02.15
조회수 1978
<<
첫번째페이지
<
이전 페이지
1
>
다음 페이지
>>
마지막 페이지 1