< 김재철AI대학원 정송 원장이 개회사를 실시하고 있다. >
우리 대학 김재철AI대학원(원장 정송)은 지난 5월 2일(목) 서울 COEX에서 ‘KAIST 김재철AI대학원 AI기술설명회 2024’(공동주최: 성남산업진흥원, 서울특별시)를 열었다. 본 행사는 KAIST 김재철AI대학원에서 연구개발 중인 최신 AI기술을 일반 참관객 및 산업계 종사자에게 홍보하여 AI기술 확산에 기여하기 위해 마련됐다. 이번 설명회에는 약 650여명이 참석하여 KAIST에서 연구 중인 AI기술에 대한 큰 관심을 확인할 수 있었다.
오전 프로그램으로는 최근 관심이 높은 AI기술 분야에 대한 초청 강연을 진행했다. 최근 산업계의 주요 관심사인 ‘기업용 대형언어모델(LLM) 도입과 활용 전략’을 주제로 장동인 교수(KAIST 김재철AI대학원)가 강연했고, ‘AI와 로봇의 만남: 로봇러닝의 현재와 미래’라는 제목으로 임재환 교수(KAIST 김재철AI대학원)가 로봇러닝 분야의 연구동향과 성과를 설명했다. 이어서 문성은 리더(네이버 클라우드)가 헬스케어AI 기술동향에 대해 발표했으며, 해당 강연에는 카이스트-네이버 초창의 AI 연구센터(Hyper-Creative AI Research Center)에서 수행한 헬스케어AI 관련 공동연구 내용도 소개됐다.
< 김재철AI대학원 임재환 교수가 강연하고 있다. >
오후 세션에서는 김재철AI대학원의 각 연구실이 보유한 다양한 AI 분야 기술과 최신 연구성과 발표가 이어졌다. 보유기술 소개 1부에서는 LLM, 딥러닝 알고리즘, 로봇 분야에 대한 기술발표가 있었다. ▲생성형 AI 평가 기술(서민준 교수, KAIST 김재철AI대학원, 이하 발표자 소속 동일) ▲데이터/자원 효율적 언어모델 선호 최적화 알고리즘(홍지우 연구원, James Thorne 교수) ▲생성형 언어모델을 사용한 정형 데이터 오버샘플링 기법(양준용 연구원, 양은호 교수) ▲대규모 딥러닝 모델을 위한 베이지안 딥러닝 기법(김현수 연구원, 이주호 교수) ▲로봇에게 물체 조작과 인지 능력 부여하기(김범준 교수) ▲병렬 디코딩을 활용한 자기회귀 언어모델의 빠르고 강건한 조기 추론 프레임워크(배상민 연구원, 윤세영 교수) 등이 소개되었다.
보유기술 소개 2부에서는 ▲실제 환경에서 사실적인 가상 착용을 위한 디퓨전 모델 개선(최이솔 연구원, 신진우 교수) ▲컴퓨터 비전 분야 영상 합성 및 변환 기술(황성원 연구원, 주재걸 교수) ▲전자건강기록 및 흉부 엑스레이 데이터베이스에 대한 멀티모달 질의응답 기술(배성수 연구원, 최윤재 교수) ▲딥러닝 모델이 학습한 특징 이해를 통한 AI 의사결정 설명기술(권다희 연구원, 최재식 교수) ▲안드로이드 모바일 기기 제어 에이전트의 다양한 기기 환경에서의 벤치마킹 연구(이주용 연구원, 이기민 교수) 등 컴퓨터 비전, 헬스케어 AI, 설명가능 인공지능(XAI) 및 에이전트 분야에 대한 최신 기술 소개 및 시연이 있었다.
본 기술설명회를 주관한 김재철AI대학원 정송 원장은 “AI엑스포에 참가한 일반대중과 산업계 종사자들에게 우리 대학원이 보유한 글로벌 수준의 최신 AI기술을 널리 알려 국내 기업들이 AI 기반 혁신을 추진하는 데에 앞장서겠다.”고 밝혔다.
행사 종료 후 김재철AI대학원이 보유한 기술에 대한 기술이전이나 공동연구에 관심이 있는 기업들은 KAIST 성남연구센터를 통해 기술상담 신청을 할 수 있다.
오픈AI 챗GPT4, 구글 Gemnini 2.5 등 최신 생성형AI 모델들은 높은 메모리 대역폭(Bandwidth) 뿐만 아니라 많은 메모리 용량(Capacity)를 필요로 한다. 마이크로소프트, 구글 등 생성형AI 클라우드 운영 기업들이 엔비디아 GPU를 수십만 장씩 구매하는 이유다. 이런 고성능 AI 인프라 구축의 핵심 난제를 해소할 방안으로, 한국 연구진이 최신 GPU 대비 약 44% 낮은 전력 소모에도 평균 60% 이상 생성형 AI 모델의 추론 성능을 향상할 NPU(신경망처리장치)* 핵심 기술을 개발하는데 성공했다. *NPU(Neural Processing Unit): 인공신경망(Neural Network)을 빠르게 처리하기 위해 만든 AI 전용 반도체 칩 우리 대학 전산학부 박종세 교수 연구팀과 (주)하이퍼엑셀(전기및전자공학부 김주영 교수 창업기업)이 연구 협력을 통해, 챗GPT와 같은 생성형AI 클라우드에 특화된 고성능·저전력의 NPU(신경망처리장치)
2025-07-04우리 대학과 사우디아라비아 킹사우드대학교(King Saud University, 총장 압둘라 알살만)는 7월 3일 서울 도곡캠퍼스에서 회의를 갖고, 인공지능(AI) 및 디지털 플랫폼 구축을 위한 전략적 협력을 추진하기로 했다고 4일 밝혔다. 글로벌 AI 생태계는 사용자나 개발자의 활용이 제한된 미국의 클로즈드(폐쇄형) 모델(OpenAI, Google 등)과 중국의 자국 중심 기술 체계를 중심으로 양분화되는 추세다. 이러한 미·중 양강 구도 속에서, 한국을 비롯한 여러 국가들은 기술적 다양성과 접근성을 보장할 수 있는 제3의 협력 모델 구축 필요성을 꾸준히 제기해 왔다. 이에 대해 이광형 총장은 오픈소스 기반의 국제 협력체 구상을 바탕으로, 기존의 양극적 디지털 질서를 넘어 상호협력·공존하는 AI 신질서인 ‘삼분지계(三分之計)’ 전략을 제안한 바 있다. 이번 KAIST-킹사우드대 협력은 기술적 다양성과 접근성을 확보하기 위한 새로
2025-07-04최근 음성 언어 모델(Spoken Language Model, SLM)은 텍스트 없이 인간의 음성을 학습해 음성의 언어적, 비언어적 정보를 이해 및 생성하는 기술로 텍스트 기반 언어 모델의 한계를 넘어서는 차세대 기술로 각광받고 있다. 하지만 기존 모델은 장시간 콘텐츠 생성이 요구되는 팟캐스트, 오디오북, 음성비서 등에서 한계가 두드러졌는데, 우리 연구진이 이런 한계를 뛰어넘어, 시간 제약 없이 일관되고 자연스러운 음성 생성을 실현한 ‘스피치SSM’을 개발하는데 성공했다. 우리 대학 전기및전자공학부 노용만 교수 연구팀의 박세진 연구원(박사과정)이 장시간 음성 생성이 가능한 음성 언어 모델 ‘스피치SSM(SpeechSSM)’을 개발했다고 3일 밝혔다. 이번 연구는 국제 최고 권위 머신러닝 학회인 ICML(International Conference on Machine Learning) 2025에 전체 제출된 논문 중 약 1%만이 선
2025-07-03원자력 에너지 활용에 있어 방사성 폐기물 관리는 핵심적인 과제 중 하나다. 특히 방사성 ‘아이오딘(요오드)’는 반감기가 길고(I-129의 경우 1,570만 년), 이동성 및 생체 유독성이 높아 환경 및 인체에 심각한 위험을 초래할 수 있다. 한국 연구진이 인공지능을 활용해 아이오딘을 제거할 원자력 환경 정화용 신소재 발굴에 성공했다. 연구팀은 향후 방사성 오염 흡착용 분말부터 오염수 처리 필터까지 다양한 산학협력을 통해 상용화를 추진할 예정이다. 우리 대학 원자력및양자공학과 류호진 교수 연구팀이 한국화학연구원 디지털화학연구센터 노주환 박사가 협력하여, 인공지능을 활용해 방사성 오염 물질이 될 수 있는 아이오딘을 효과적으로 제거하는 신소재를 발굴하는 기술을 개발했다고 2일 밝혔다. 최근 보고에 따르면 방사능 오염 물질인 아이오딘이 수용액 환경에서 아이오딘산염(IO3-) 형태로 존재하는 것으로 밝혀졌으나, 기존의 은 기반 흡착제는 이에 대해 낮은 화학적
2025-07-02우리 대학 기계공학과 윤국진 교수 연구팀의 논문 12편이 세계 최고 권위 컴퓨터비전 국제 학술 대회 중 하나인 IEEE/CVF International Conference on Computer Vision 2025(ICCV 2025)에 채택되어, 연구팀의 독보적인 연구 역량을 다시 한번 국제적으로 인정받았다. ICCV는 CVPR, ECCV와 함께 컴퓨터비전 및 인공지능 분야에서 가장 영향력 있는 국제 학술대회 중 하나로, 1987년부터 격년으로 개최되어 왔다. 이번 ICCV 2025에는 총 11,152편의 논문이 제출되었고, 이 중 2,698편이 채택되어 약 24.19%의 낮은 채택률을 기록하였다. 학술대회에 제출할 수 있는 논문 편수에 대한 제한이 있음에도 불구하고 단일 연구실에서 12편의 논문이 동시 채택되는 것은 매우 드문 성과다. 윤국진 교수 연구팀은 학습 기반의 시각 지능 구현을 목표로 연구를 진행하고 있으며, 이번에 발표된 12편의 논문들은 3D 객체 탐지 및
2025-06-30