
우리 대학이 인공지능 기술의 윤리적 활용을 주제로 한 국제 세미나 ‘인공지능 길들이기 : 공학, 윤리, 정책’을 21일(목) 오전 11시 서울 웨스틴 조선호텔에서 개최한다.
이번 세미나는 급속도로 발전하는 인공지능을 책임 있게 개발해 윤리적으로 활용하기 위한 공학적, 정책적 방안을 논의하는 자리로 과학기술정보통신부의 지능정보기술 플래그쉽 감성 디지털 동반자 과제 연구단(연구책임자 : 이수영 교수)이 주최하고 우리 대학 인공지능연구소와 4차 산업혁명 지능정보센터가 공동 후원한다.
알파고-이세돌 대국을 기점으로 인공지능에 대한 관심이 고조되며 사회 전 분야에 고도로 학습된 알고리즘이 도입될 미래에 대한 여러 전망이 나오고 있다.
인공지능의 적극적 도입을 통한 효율성 증대가 새로운 경제적 기회가 될 것이라는 희망적인 전망이 제시되는 한편 알고리즘에 의한 사회적 차별, 자동화에 따른 노동 대체, 자율적 로봇으로 인한 생명과 안전의 위협 등 새 위험요소가 등장하고 위기가 심화될 것이라는 우려 또한 존재한다.
이번 세미나에선 인공지능이 보여줄 새로운 기회와 위험 사이에서 파괴적 혁신의 속도와 방향을 조절하기 위한 방안을 모색한다. 영국, 일본, 호주 등에서 인공지능의 윤리에 관한 선도적 활동을 벌여온 학자들을 초청해 기술의 책임 있는 개발과 활용을 위한 공학적, 정책적, 윤리적 의견을 들을 예정이다.
이를 통해 위협이 될 수 있는 인공지능의 기술을 인간의 가치에 맞춰 길들이기 위해 학계, 산업계, 정부의 각 주체들이 실천할 수 있는 다양한 방안에 대해 토론한다.
호주 뉴사우스웨일즈 대학의 토비 왈시(Toby Walsh) 교수는 ‘자율적 살상 무기 : 인공지능 연구자는 무엇을 해야 하는가?’를 주제로 인공지능의 군사적 활용 사례 및 이에 대한 UN의 선제적 대처 등을 소개한다. 이어 연구 현장의 공학자들이 가져야 할 윤리적 실천에 대해 토론한다.
영국 노팅엄 대학의 안스가 쿠너(Ansgar Koene) 교수는 ‘자율 및 지능 시스템의 윤리에 관한 IEEE의 국제 이니셔티브’라는 제목으로 세계 최대 전기전자공학자 단체인 IEEE가 인공지능의 윤리적 개발을 위해 추진하는 산업 표준 제정 사례에 대해 발표한다. 공학자가 활용할 수 있는 디자인 가이드라인 개발에 대해서도 토론한다.
일본 동경대 에마 아리사(江間 有沙) 교수는 ‘일본의 인공지능 윤리 및 정책 : 일본 인공지능 학회가 주는 교훈’이라는 제목으로 발표한다. 로봇 및 인공지능 분야를 국제적으로 선도하고 있는 일본의 학계 및 대학의 윤리 관련 활동과 교훈을 소개한다.
마지막으로 이수영 교수는 ‘어떤 인공지능 윤리를 어떻게 가르칠 것인가?’라는 제목으로 발표하며 사용자의 감정을 인식하는 대화형 인공지능을 직접 개발하는 과정에서 마주친 윤리적 문제를 사례로 들 예정이다.
각 연사의 발표 이후 국내 인공지능 연구자 및 정책 연구자의 논평과 종합토론을 통해 인공지능의 책임 있는 개발을 위한 국내 학계의 실천 가능 정책과 국제 윤리 담론에 기여할 수 있는 방안을 심도 있게 논의할 예정이다.
신성철 총장은 “인공지능 기술이 가져올 파괴적 혁신은 경제적 기회뿐만 아니라 다양한 사회적 위험을 불러일으킬 수 있다. 변화하는 기술 및 사회 패러다임에 신속하게 대응하기 위한 선제적 전략이 시급하다”며 “KAIST는 첨단 인공지능의 개발은 물론 기술의 윤리적 사용에 대해서 역시 국제적 선도 연구를 꾸준히 수행하겠다”고 말했다.
이번 세미나의 참가는 사전 등록(링크: https://goo.gl/forms/vvvcYV7TzjpVFgB53 )를 통해 신청할 수 있다.
우리 대학 김재철AI대학원 최재식 교수 연구팀이 ㈜카카오뱅크(대표 윤호영)와 공동으로 인공지능(AI) 모델의 판단 근거를 실시간으로 설명할 수 있는 가속화 설명 기술을 개발했다고 밝혔다. 이번 연구 성과는 AI 모델의 예측 결과에 대한 기존 설명 알고리즘 대비 평균 8.5배, 최대 11배 이상 빠른 처리 속도를 달성해, 금융 서비스 등 실시간 의사결정이 필요한 분야에서 설명가능 인공지능(Explainable Artificial Intelligence, 이하 XAI) 기술의 실용화 가능성을 크게 높였다. 금융 분야에서는 AI 시스템이 내린 결정에 대한 명확한 설명이 필수적이다. 특히 대출 심사나 이상거래 탐지와 같이 고객의 권익과 직결된 서비스에서는 AI 모델의 판단 근거를 투명하게 제시해야 하는 규제 요구가 점차 강화되고 있다. 하지만 기존의 설명가능 인공지능(XAI) 기술은 정확한 설명을 생성하기 위해 수백에서 수천 개의 기준점(Baseline)을 반복 계산해야 하므로 막
2025-12-11우리 대학은 11월 14일, 컴퓨터 과학 분야 세계적 권위의 학술대회인 ‘정보 및 지식관리 학회(The 34th International Conference on Information and Knowledge Management, CIKM 2025)’에서‘인간 중심 AI: 설명가능성과 신뢰성에서 실행 가능한 윤리까지(Human-Centric AI: From Explainability and Trustworthiness to Actionable Ethics)’를 주제로 국제 워크숍(워크샵 조직위원장: KAIST 김재철AI대학원 최재식 교수)을 개최할 예정이다. 이번 행사는 KAIST 김재철AI대학원이 주도하고 서울대, 서강대, 성균관대, 한국전자통신연구원(ETRI), 독일 TU Berlin 등 국내외 유수 기관이 공동으로 참여하는 자리다. AI 기술의 잠재적 위험을 줄이고 책임 있는 활용을 위한 ‘인간 중심 AI&rsquo
2025-11-07이제는 단순히 대화만 하는 음성비서를 넘어, AI가 직접 화면을 보고 판단해 택시를 호출하고 SRT 티켓을 예매하는 시대가 열렸다. 우리 대학은 전산학부 신인식 교수(㈜플루이즈 대표)가 이끄는 AutoPhone 팀(플루이즈·KAIST·고려대·성균관대)이 과학기술정보통신부가 주최한 ‘2025 인공지능 챔피언(AI Champion) 경진대회’에서 초대 AI 챔피언(1위)에 선정됐다고 6일 밝혔다. 이번 대회는 AI 기술의 혁신성, 사회적 파급력, 사업화 가능성을 종합 평가하는 국내 최대 규모의 AI 기술 경진대회로, 전국 630개 팀이 참가한 가운데 AutoPhone 팀이 최고 영예를 차지하며 연구개발비 30억 원을 지원받는다. AutoPhone 팀이 개발한 ‘FluidGPT’는 사용자의 음성 명령을 이해해 스마트폰이 스스로 앱을 실행하고 클릭·입력·결제까지 완료하는 완전
2025-11-06세계 최대 전기·전자 기술 학회인 IEEE(Institute of Electrical and Electronics Engineers)의 캐슬린 크레이머(Kathleen A. Kramer) 회장이 30일 우리 대학을 방문해 ‘인공지능의 미래를 함께 그리다’라는 주제로 특별 강연을 진행했다. 전기및전자공학부(학부장 유승협)의 초청으로 콜로퀴엄 연단에 선 크레이머 회장은 IEEE의 핵심 비전인 ‘인류를 위한 기술 발전(Advancing Technology for Humanity)’을 바탕으로 “인공지능(AI)은 더 이상 먼 미래의 개념이 아니라, 혁신의 중심에서 인류의 삶을 변화시키는 기술이 되었다”라고 강조했다. 이어 “기술은 인간의 가치를 중심으로 발전해야 하며, 윤리와 포용성을 기반으로 한 인공지능이 진정한 혁신을 이끌 수 있다”라고 덧붙이며, 인공지능의 발전 방향과 기술
2025-11-03우리 대학은 도시인공지능연구소(소장 건설및 환경공학과 윤윤진 지정석좌교수)가 미국 MIT 센서블 시티 랩(Senseable City Lab, 소장 Carlo Ratti 교수)과 함께 ‘도시와 인공지능(Urban AI)’분야의 공동연구를 진행하고, 그 성과를 서울 코엑스에서 열린 9월 말 ‘스마트라이프위크 2025(Smart Life Week 2025)’ 전시를 통해 공개했다고 10월 29일 밝혔다. KAIST와 MIT는 도시의 주요 문제를 인공지능으로 해석하는‘Urban AI 공동연구 프로그램’을 추진해 왔으며, 이번 전시에서는 ▲도시 기후 변화 ▲녹지 환경 ▲데이터 포용성 등 세 가지 주제를 중심으로 연구 성과를 시민이 직접 체험할 수 있는 형태로 선보였다. 양 기관은 이번 협력을 통해 AI 기술이 도시의 문제를 계산하는 도구를 넘어, 사회적 이해와 공감을 이끄는 새로운 지능으로 확장될 수 있음을 보여주며 ▲도
2025-10-29