본문 바로가기
대메뉴 바로가기
KAIST
뉴스
유틸열기
홈페이지 통합검색
-
검색
ENGLISH
메뉴 열기
%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5
최신순
조회순
인공지능반도체대학원, 제2회 한국인공지능시스템포럼 AI 산업혁신 논의
우리 대학 인공지능반도체대학원 주최로 20일(목) 오전 대전 오노마 호텔에서 ‘제2회 한국인공지능시스템포럼(KAISF) 조찬 강연회’가 성황리에 개최되었다. 본 행사는 인공지능(AI) 기술의 최신 동향과 혁신 및 응용, 특히 AI-X(AI-특정산업)에 대해 다양한 분야의 전문가들이 모여 심도 있는 논의를 진행하는 자리로 LG AI 연구원의 최정규 상무가 LLM(거대언어모델)에 대해 개발에 대해 발표한다. 조찬 회의에는 총 65명의 AI 전문가가 참석하였으며, LG AI 연구원에서 최근 개발하고 공개한 대규모 언어 모델인 ‘엑사원(EXAONE)에 대해 Driving the Future of AI Innovation’라는 주제로 발제 발표가 진행되었다. 최정규 LG AI 연구원 상무는 LG 엑사원의 현재 연구 현황과 향후 글로벌 AI 시장에서의 계획을 발표하였으며 특히 최근 AI 생태계를 뜨겁게 달구고 있는 ‘딥시크(Deepseek)’를 중심으로, 글로벌 AI 경쟁 속에서 한국 AI 기업이 나아가야 할 방향과 기회에 대해 논의하였다. 이번 강연회에서는 LLM 기술의 산업적 적용 가능성도 주요 의제로 다뤄졌다. 전문가들은 LLM 기술이 금융, 의료, 제조, 국방 및 교육 등 다양한 사업에서 어떻게 활용될 수 있는지를 논의하며, 실제 적응 사례도 공유했다. 유회준 인공지능반도체대학원장 겸 한국인공지능시스템포럼 의장은“이번 강연회를 통해 대전을 중심으로 AI에 의한 산업전환 (AI-X)이 주도되고 이들의 적용 사례가 전국적으로 공유되면 좋겠다”며 산학연 협력을 강화하는데 주력하자고 말했다. 한국인공지능시스템포럼은 앞으로도 지속적으로 포럼과 프로그램을 운영하며 AI-X을 통한 한국 산업 혁신을 선도하는 중심 허브로 자리매김할 계획임을 밝혔다. 또한, 대전을 중심으로 한국의 모든 연구자 및 산업 관계자들이 정보를 공유하고 협력할 수 있도록 지원할 예정이다.
2025.03.20
조회수 343
챗GPT 등 대형 AI모델 학습 최적화 시뮬레이션 개발
최근 챗GPT, 딥시크(DeepSeek) 등 초거대 인공지능(AI) 모델이 다양한 분야에서 활용되며 주목받고 있다. 이러한 대형 언어 모델은 수만 개의 데이터센터용 GPU를 갖춘 대규모 분산 시스템에서 학습되는데, GPT-4의 경우 모델을 학습하는 데 소모되는 비용은 약 1,400억 원에 육박하는 것으로 추산된다. 한국 연구진이 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 최적의 병렬화 구성을 도출하도록 돕는 기술을 개발했다. 우리 대학 전기및전자공학부 유민수 교수 연구팀은 삼성전자 삼성종합기술원과 공동연구를 통해, 대규모 분산 시스템에서 대형 언어 모델(LLM)의 학습 시간을 예측하고 최적화할 수 있는 시뮬레이션 프레임워크(이하 vTrain)를 개발했다고 13일 밝혔다. 대형 언어 모델 학습 효율을 높이려면 최적의 분산 학습 전략을 찾는 것이 필수적이다. 그러나 가능한 전략의 경우의 수가 방대할 뿐 아니라 실제 환경에서 각 전략의 성능을 테스트하는 데는 막대한 비용과 시간이 들어간다. 이에 따라 현재 대형 언어 모델을 학습하는 기업들은 일부 경험적으로 검증된 소수의 전략만을 사용하고 있다. 이는 GPU 활용의 비효율성과 불필요한 비용 증가를 초래하지만, 대규모 시스템을 위한 시뮬레이션 기술이 부족해 기업들이 문제를 효과적으로 해결하지 못하고 있는 상황이다. 이에 유민수 교수 연구팀은 vTrain을 개발해 대형 언어 모델의 학습 시간을 정확히 예측하고, 다양한 분산 병렬화 전략을 빠르게 탐색할 수 있도록 했다. 연구팀은 실제 다중 GPU 환경에서 다양한 대형 언어 모델 학습 시간 실측값과 vTrain의 예측값을 비교한 결과, 단일 노드에서 평균 절대 오차(MAPE) 8.37%, 다중 노드에서 14.73%의 정확도로 학습 시간을 예측할 수 있음을 검증했다. 연구팀은 삼성전자 삼성종합기술원와 공동연구를 진행하여 vTrain 프레임워크와 1,500개 이상의 실제 학습 시간 측정 데이터를 오픈소스로 공개(https://github.com/VIA-Research/vTrain)하여 AI 연구자와 기업이 이를 자유롭게 활용할 수 있도록 했다. 유민수 교수는 “vTrain은 프로파일링 기반 시뮬레이션 기법으로 기존 경험적 방식 대비 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 학습 전략을 탐색하였으며 오픈소스를 공개하였다. 이를 통해 기업들은 초거대 인공지능 모델 학습 비용을 효율적으로 절감할 것이다”라고 말했다. 이 연구 결과는 방제현 박사과정이 제1 저자로 참여하였고 컴퓨터 아키텍처 분야의 최우수 학술대회 중 하나인 미국 전기전자공학회(IEEE)·전산공학회(ACM) 공동 마이크로아키텍처 국제 학술대회(MICRO)에서 지난 11월 발표됐다. (논문제목: vTrain: A Simulation Framework for Evaluating Cost-Effective and Compute-Optimal Large Language Model Training, https://doi.org/10.1109/MICRO61859.2024.00021) 이번 연구는 정부(과학기술정보통신부)의 재원으로 한국연구재단, 정보통신기획평가원, 그리고 삼성전자의 지원을 받아 수행되었으며, 과학기술정보통신부 및 정보통신기획평가원의 SW컴퓨팅산업원천기술개발(SW스타랩) 사업으로 연구개발한 결과물이다.
2025.03.13
조회수 794
스스로 가설을 세워 검증하는 뇌 기반 AI 기술
뇌의 맥락 추론 방식이 챗지피티 같은 대규모 인공지능 모델과 어떻게 다를까? 우리 연구진이 ‘뇌처럼 생각하는 인공지능’기술로서 과도한 자신감을 보이는 인공지능의 할루시네이션(Hallucination) 현상을 완화하거나 인간이나 동물과 유사하게 스스로 가설을 세워 검증하는 신개념 인공지능 모델을 개발하는데 성공했다. 우리 대학 뇌인지과학과 이상완 교수(신경과학-인공지능 융합연구센터장)와 생명과학과 정민환 교수(IBS 시냅스 뇌질환 연구단 부연구단장) 연구팀이 동물이 가설을 세워 일관된 행동 전략을 유지함과 동시에, 본인의 가설을 스스로 의심하고 검증하면서 상황에 빠르게 적응하는 새로운 강화학습 이론을 제시하고 뇌과학적 원리를 규명했다고 20일 밝혔다. 현재 상황에 맞게 행동의 일관성과 유동성 사이의 적절한 균형점을 찾아가는 문제를 ‘안정성-유동성의 딜레마(Stability-flexibility dilemma)’라 한다. 이를 위해서는 현재 본인의 판단이 맞는지를 계속 검증하고 수정할 수 있어야 한하는데 뇌과학 및 인공지능 분야에서 다양한 연구가 있었으나 아직까지 완벽한 해법이 알려진 바가 없다. 연구팀은 스스로 세운 가설을 바탕으로 다음 상황을 예측하고 확인하는 행동 패턴을 동역학적으로 프로파일링 할 수 있는 새로운 방식을 고안했고, 이를 바탕으로 전통적인 강화학습 이론과 최신 인공지능 알고리즘 모두 동물의 관련 행동을 제대로 설명하지 못한다는 것을 발견했다. 이어 연구팀은 동물의 현재 상황에 대한 가설을 세우고, 가설의 예측 오류를 바탕으로 행동 전략을 비대칭적으로 업데이트하는 새로운 적응형 강화학습 이론과 모델을 제안했다. 최신 인공지능 모델은 효율적 문제 해결에 집중하다 보니 인간이나 동물의 행동을 잘 설명하지 못하는 경우가 많은 반면, 제안 모델은 예상치 못한 사건에 대한 동물의 행동을 최신 인공지능 모델 대비 최대 31%, 평균 15% 더 잘 예측함을 보였다. 특히, 이 결과는 기존 연구에서 발표된 네 가지 서로 다른 동물 실험 데이터(two-step task, two-armed bandit task, T-maze task, two-armed bandit task with MSN inactivation) 분석을 통해 일관성 있게 재현되었다. 연구팀은 더 나아가 중뇌 기저핵* 선조체**속 중간크기 가시뉴런***이 가설 기반 적응형 강화학습 과정에 관여함을 밝혔다. 직접 경로 가시뉴런들은 예상한 사건을 마주한 경험을, 간접 경로 가시뉴런들은 예상하지 못한 사건을 마주한 경험을 부호화해 행동 전략을 조절함을 보였다. *기저핵(Basal Ganglia): 대뇌피질, 시상, 뇌간 등 운동 조절 및 학습하는 기능을 담당하는 뇌 부위 **선조체(Striatum): 기저핵의 일부로 가치 평가 및 강화학습 능력과 관련된 부위 ***가시뉴런Medium Spiny Neuron, MSN): 선조체의 약 90%를 차지하는 대표적 신경세포로 신경활동을 억제하는 특징을 가지고 있음 본 연구 결과는 뇌의 맥락 추론 방식이 대규모 인공지능 모델과 근본적으로 다르다는 것을 보여준다. 챗지피티(ChatGPT)나 딥시크와 같은 인공지능 모델은 사용자 입력으로부터 맥락 정보를 추정하고 이를 바탕으로 필요한 전문가 시스템에 매칭하며 (딥시크 모델은 강화학습을 사용하여 매칭), 새로운 정보가 들어올 때까지는 이것이 맞다고 가정한다. 이와 달리 뇌는 스스로 추정한 맥락(가설)을 의심하고, 의심이 확인되는 즉시 새로운 맥락을 적극 받아들인다. 이는 과도한 자신감을 보이는 인공지능의 할루시네이션(Hallucination) 현상을 완화하거나 인간과 유사한 추론엔진을 구성할 수 있는 새로운 방향성을 제시한다. 본 연구는 뇌과학-인공지능 융합연구로서, 실제 분야에 널리 활용될 수 있다. 예를 들어, 인간의 동역학적 행동 프로파일링 기술을 이용하면 개개인의 가설 수립, 검증 학습 능력 분석이 가능하므로, 맞춤형 교육 커리큘럼 디자인, 인사 및 인력관리 시스템, 인간-컴퓨터 상호작용 분야에 바로 적용할 수 있다. 제안된 적응형 강화학습 모델은 ‘뇌처럼 생각하는 인공지능’기술로서 인간-인공지능 가치 정렬 (Value alignment) 문제 해결에 활용될 수 있다. 또한 이 과정에 관여하는 것으로 알려진 기저핵 내 보상학습 회로와 관련된 중독이나 강박증과 같은 정신질환의 뇌과학적 원인 규명에 활용될 수 있다. 연구 책임자인 이상완 교수는 "이번 연구는 인공지능의 강화학습 이론만으로 설명할 수 없는 뇌의 가설 기반 적응학습 원리를 밝혀낸 흥미로운 사례ˮ라면서 "스스로 의심하고 검증하는 뇌과학 이론을 대규모 인공지능 시스템 설계와 학습 과정에 반영하면 신뢰성을 높일 수 있을 것ˮ이라고 말했다. 뇌인지공학 프로그램 양민수 박사과정 학생이 1 저자, 생명과학과 정민환 교수가 공동 저자, 뇌인지과학과 이상완 교수가 교신저자로 참여한 이번 연구는 국제 학술지 `네이처 커뮤니케이션스 (Nature Communications)‘ 2월 20일자로 게재됐다. (논문명: Striatal arbitration between choice strategies guides few-shot adaptation) DOI: 10.1038/s41467-025-57049-5) 한편 이번 연구는 과학기술정보통신부 정보통신기획평가원 SW스타랩, 한계도전 R&D 프로젝트, 한국연구재단 중견연구자 및 KAIST 김재철AI대학원 사업 지원을 받아 수행됐다.
2025.02.27
조회수 1539
챗GPT를 이용한 개인정보 악용 가능성 규명
최근 인공지능 기술의 발전으로 챗GPT와 같은 대형 언어 모델(이하 LLM)은 단순한 챗봇을 넘어 자율적인 에이전트로 발전하고 있다. 구글(Google)은 최근 인공지능 기술을 무기나 감시에 활용하지 않겠다는 기존의 약속을 철회해 인공지능 악용 가능성에 대한 논란이 불거진 점을 상기시키며, 연구진이 LLM 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 수 있음을 입증했다. 우리 대학 전기및전자공학부 신승원 교수, 김재철 AI 대학원 이기민 교수 공동연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다고 25일 밝혔다. 현재 OpenAI, 구글 AI 등과 같은 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 그러나 연구팀의 실험 결과, 이러한 방어 기법이 존재함에도 불구하고 쉽게 우회해 악의적인 사이버 공격을 수행할 수 있음이 확인됐다. 기존의 공격자들이 시간과 노력이 많이 필요한 공격을 수행했던 것과는 달리, LLM 에이전트는 이를 평균 5~20초 내에 30~60원(2~4센트) 수준의 비용으로 개인정보 탈취 등이 자동으로 가능하다는 점에서 새로운 위협 요소로 부각되고 있다. 연구 결과에 따르면, LLM 에이전트는 목표 대상의 개인정보를 최대 95.9%의 정확도로 수집할 수 있었다. 또한, 저명한 교수를 사칭한 허위 게시글 생성 실험에서는 최대 93.9%의 게시글이 진짜로 인식됐다. 뿐만 아니라, 피해자의 이메일 주소만을 이용해 피해자에게 최적화된 정교한 피싱 이메일을 생성할 수 있었으며, 실험 참가자들이 이러한 피싱 이메일 내의 링크를 클릭할 확률이 46.67%까지 증가하는 것으로 나타났다. 이는 인공지능 기반 자동화 공격의 심각성을 시사한다. 제1 저자인 김한나 연구원은 "LLM에게 주어지는 능력이 많아질수록 사이버 공격의 위협이 기하급수적으로 커진다는 것이 확인됐다”며, "LLM 에이전트의 능력을 고려한 확장 가능한 보안 장치가 필요하다”고 말했다. 신승원 교수는 “이번 연구는 정보 보안 및 AI 정책 개선에 중요한 기초 자료로 활용될 것으로 기대되며, 연구팀은 LLM 서비스 제공업체 및 연구기관과 협력하여 보안 대책을 논의할 계획이다”라고 밝혔다. 전기및전자공학부 김한나 박사과정이 제1 저자로 참여한 이번 연구는 컴퓨터 보안 분야의 최고 학회 중 하나인 국제 학술대회 USENIX Security Symposium 2025에 게재될 예정이다. (논문명: "When LLMs Go Online: The Emerging Threat of Web-Enabled LLMs") DOI: 10.48550/arXiv.2410.14569 한편 이번 연구는 정보통신기획평가원, 과학기술정보통신부 및 광주광역시의 지원을 받아 수행됐다.
2025.02.24
조회수 1130
적층 제조된 티타늄 합금의 강도-연성 딜레마 AI 기술로 극복
우리 대학 기계공학과 이승철 교수 연구팀이 POSTECH 신소재공학과 김형섭 교수 연구팀과 함께 인공지능 기술을 활용해 Ti-6Al-4V 합금의 강도-연성 딜레마를 극복하고 고강도·고연신 금속 제품을 생산해 내는 데 성공했다고 밝혔다. 연구팀이 개발한 인공지능은 3D프린팅 공정변수에 따른 기계적 물성을 정확히 예측하는 동시에 예측의 불확실성 정보를 제공하며 이 두 정보를 활용해 실제 3D프린팅을 진행할 가치가 높은 공정변수를 추천한다. 3D프린팅 기술 중에서도 레이저 분말 베드 융합은 뛰어난 강도 및 생체 적합성으로 유명한 Ti-6Al-4V 합금을 제조하기 위한 혁신적인 기술이다. 그러나 3D프린팅으로 제작된 이 합금은 강도와 연성을 동시에 높이기 어렵다는 문제점이 있다. 3D프린팅의 공정변수와 열처리 조건을 조절해 이를 해결하고자 하는 연구들이 있었지만, 방대한 공정변수 조합들을 실험 및 시뮬레이션으로 탐색하기에는 한계가 있었다. 연구팀이 개발한 능동 학습(Active Learning) 프레임워크는 다양한 3D프린팅 공정변수 및 열처리 조건들을 빠르게 탐색하여 그 중 합금의 강도와 연성을 동시에 높일 수 있다고 예상되는 것을 추천한다. 이런 추천은 인공지능 모델이 각 공정변수 및 열처리 조건에 대해 예측한 극한 인장 강도와 전연신율을 비롯해 예측의 불확실성 정보도 활용해 진행되며 추천된 것에 대해선 3D프린팅 및 인장 실험을 통해 실제 물성값을 얻게 된다. 새롭게 얻어낸 물성값을 인공지능 모델 학습에 추가로 활용하여 반복적으로 공정변수 및 열처리 조건들을 탐색하였으며 단 5번만의 시도로 고성능 합금을 생산해 낼 수 있는 공정변수 및 열처리 조건들을 도출하였다. 이를 적용해 3D프린팅한 Ti-6Al-4V 합금은 극한 인장 강도 1190MPa, 전연신율 16.5%를 기록하며 강도-연성 딜레마를 극복해 냈다. 이승철 교수는 “이번 연구에서 3D프린팅 공정변수와 열처리 조건을 최적화하여 고강도·고연신 Ti-6Al-4V 합금을 최소한의 실험만으로 도출해 낼 수 있었으며, 기존 연구들과 비교해 비슷한 극한 인장 강도를 가지지만 더 큰 전연신율을 가진 합금을 그리고 비슷한 전연신율을 가지지만 더 큰 극한 인장 강도를 가진 합금을 제작할 수 있었다.”라고 말했다. “또한, 기계적 물성뿐만 아니라 열전도도 및 열팽창과 같은 다른 물성에 관해서도 본 연구 방법이 적용되면 3D프린팅 공정변수와 열처리 조건에 대한 효율적인 탐색이 가능할 것으로 예상된다”라고 덧붙였다. 이번 연구 결과는 국제 학술지 ‘Nature Communications’에 지난 1월 22일에 출판되었으며 (https://doi.org/10.1038/s41467-025-56267-1), 이 연구는 한국연구재단 나노·소재기술개발사업 및 선도연구센터사업의 지원을 받아 진행됐다.
2025.02.21
조회수 1231
김정호 교수, 한국반도체학술대회 ‘2025 강대원 상’ 수상
우리 대학 전기및전자공학부 김정호 교수가 회로·시스템 분야 '2025년 강대원 상'을 한국반도체학술대회 상임운영위원회로부터 수상한다. 김 교수는 HBM 개발에 기여한 공로를 인정받아 SK하이닉스 이강욱 부사장과 함께 수상한다. 시상식은 13일 오후 강원도 하이원그랜드호텔에서 한국반도체산업협회 · 한국반도체연구조합 · DB하이텍이 공동으로 주관, 개최하는 ‘제32회 한국반도체학술대회(KCS 2025)’ 개막식에서 진행된다. 강대원 상은 세계 최초로 모스펫(MOSFET)과 플로팅게이트를 개발해, 반도체 기술 발전에 신기원을 이룩한 고(故) 강대원 박사를 기리기 위해 제정되었으며, 한국반도체학술대회 상임운영위원회가 지난 2017년 열린 제24회 반도체 학술대회부터 강대원 박사를 이을 인재들을 발굴, 선정해서 시상하고 있다. 김정호 교수는 ‘HBM 아버지’로 불리는 인공지능 반도체 분야의 세계적 권위자이다. 지난 20년 이상 HBM 관련 설계 기술을 세계적으로 주도해 왔다. 특히 HBM 실리콘관통전극(TSV), 인터포저, 신호선 설계(SI), 전력선 설계(PI) 등을 연구하며 세계적으로 연구의 독창성을 인정받고 있다. 이것뿐만 아니라 2010년부터 HBM 상용화 설계에 직접 참여하고 있다. 그 결과, 현재의 인공지능 시대를 가능하게 했다는 평가를 받는다. 최근에는 6세대 HBM인 HBM4를 비롯해, HBM5, HBM6와 같은 차세대 HBM 구조와 아키텍트를 주도적으로 연구 중이다. 여기에 한 걸음 더 나아가 HBM 설계를 인공지능으로 자동화하려는 시도를 병행하고 있다. 특히 강화학습과 생성 인공지능을 결합해 HBM의 전기적, 열적 최적화 연구를 세계적 수준으로 이끌며, 이 분야의 연구를 선도하고 있다. 작년 6월에는, 삼성전자와 공동으로 KAIST에 ‘시스템아키텍트대학원’을 설립해 인공지능 반도체 분야 H/W 및 S/W 동시 설계가 가능한 고급 전문 인력을 양성하는 데 힘쓰고 있으며, 2018년부터 삼성전자 산학협력센터장을 맡고 있다. 또 네이버 ‧ 인텔과 협력해 KAIST에 AI 공동연구센터(NIK AI Research Center)를 설립하는 등 AI 반도체 설계와 더불어 AI 클라우드, AI 데이터 센터 성능 최적화를 목표로 반도체 산업의 신생태계 구축에도 기여하고 있다. IEEE(국제전기전자공학자학회) 석학회원(Fellow)인 김 교수는 이와 같이 반도체 분야 연구와 교육을 통해 산업 발전에 기여한 공로를 인정받아 KAIST 학술상, KAIST 연구대상, KAIST 국제협력상, IEEE 기술 업적상 등을 수상했으며. IEEE 등 여러 국제학회에서 20여 차례에 걸쳐 '최고 논문상‘을 받는 등 학술적인 면에서도 큰 성과를 거두고 있다. ‘강대원 상’은 한국반도체학술대회 상임운영위원회가 세계적인 반도체 연구자인 고(故) 강대원 박사의 업적을 재조명하기 위해 지난 2017년, 처음 제정한 상이다. 강 박사는 미국 벨연구소에 입사해 1960년 이집트 출신 아탈라 박사와 트랜지스터 모스펫(MOS-FET)을 개발, 현대 반도체 기술의 핵심 토대를 마련했다. 또 플래시메모리 근간인 플로팅게이트를 세계 최초로 개발하기도 했다. 한편 한국반도체산업협회와 한국반도체연구조합, DB하이텍이 12~14일 강원도 하이원그랜드호텔에서 개최하는 32회 한국반도체학술대회에는 삼성전자·SK하이닉스·DB하이텍 등 반도체 기업을 포함해 국내 4,200명 이상의 반도체 분야 산·학·연 전문가와 학생이 참석해 역대 최대 규모인 1,659편 논문을 발표하는 등 연구 성과를 공유한다.
2025.02.12
조회수 893
감정노동 근로자 정신건강 살피는 AI 나왔다
감정노동이 필수적인 직무를 수행하는 상담원, 은행원 근로자들은 실제로 느끼는 감정과는 다른 감정을 표현해야 하는 상황에 자주 놓이게 된다. 이런 감정적 작업 부하에 장시간 노출되면 심각한 정신적, 심리적 문제뿐만 아니라 심혈관계 및 소화기계 질환 등 신체적 질병으로도 이어질 수 있어 이는 심각한 사회 문제로 여겨지고 있다. 한미 공동 연구진은 인공지능을 활용해서 근로자의 감정적 작업 부하를 자동으로 측정하고 실시간으로 모니터링할 수 있는 새로운 방법을 제시했다. 우리 대학 전산학부 이의진 교수 연구팀은 중앙대학교 박은지 교수팀, 미국 애크런 대학교의 감정노동 분야 세계적인 석학인 제임스 디펜도프 교수팀과 다학제 연구팀을 구성해 근로자들의 감정적 작업 부하를 실시간으로 추정해 심각한 정신적, 신체적 질병을 예방할 수 있는 인공지능 모델을 개발했다고 11일 밝혔다. 연구팀은 이번 연구를 통해 근로자가 감정적 작업 부하가 높은 상황과 그렇지 않은 상황을 87%의 정확도로 구분해 내는데 성공했다. 이 시스템은 기존의 설문이나 인터뷰 같은 주관적인 자기 보고 방식에 의존하지 않고도 감정적 작업 부하를 실시간으로 평가할 수 있어 근로자들의 정신건강 문제를 사전에 예방하고 효과적으로 관리할 수 있다는 장점이 있다. 또한, 이 시스템은 콜센터뿐만 아니라 고객 응대가 필요한 다양한 직종에 적용될 수 있어 감정 노동자들의 장기적인 정신건강 보호에 크게 기여할 것으로 기대된다. 기존 연구는 주로 사무실에서 컴퓨터를 사용해 서류 업무를 주로 다루는 직장인의 인지적 작업 부하(정보를 처리하고 의사결정을 내리는 데 필요한 정신적 노력)를 다뤘으며, 고객을 상대하는 감정 노동자들의 작업 부하를 추정하는 연구는 전무한 상황이었다. 감정 노동자들의 감정적 작업 부하는 고용주로부터 요구되는 정서 표현 규칙과 관련이 깊다. 특히 감정노동이 요구되는 상황에서는 자신의 실제 감정을 억제하고 친절한 응대를 해야 하기 때문에 대체적으로 근로자의 감정이나 심리적 상태가 표면적으로 드러나 있지 않다. 기존의 감정-탐지 인공지능 모델들은 주로 인간의 감정이 표정이나 목소리에 명백하게 드러나는 데이터를 활용해 모델을 학습해왔기 때문에 자신의 감정을 억제하고 친절한 응대를 강요받는 감정 노동자들의 내적인 감정적 작업 부하를 측정하는 것은 어려운 일로 여겨져 왔다. 모델 개발을 위해서는 현실을 충실히 반영한 고품질의 상담 시나리오 데이터셋 구축이 필수적어서 연구팀은 현업에 종사 중인 감정 노동자들을 대상으로 고객상담 데이터셋을 구축했다. 일반적인 콜센터 고객을 응대 시나리오를 개발하여 31명의 상담사로부터 음성, 행동, 생체신호 등 다중 모달 센서 데이터를 수집했다. 연구팀은 인공지능 모델 개발을 위해 고객과 상담사의 음성 데이터로부터 총 176개의 음성특징을 추출했다. 음성 신호 처리를 통해서 시간, 주파수, 음조 등 다양한 종류의 음성특징이 추출하며, 대화 내용은 고객의 개인정보 보호를 위하여 사용하지 않았다. 정서 표현 규칙으로 인한 상담사의 억제된 감정 상태를 추정하기 위하여 상담사로부터 수집된 생체신호로부터 추가적인 특징을 추출했다. 피부의 전기적 특성을 나타내는 피부 전도도(EDA, Electrodermal activity) 13개의 특징, 뇌의 전기적 활성도를 측정하는 뇌파(EEG, Electroencephalogram) 20개의 특징, 심전도(ECG, Electrocardiogram) 7개의 특징, 그 외 몸의 움직임, 체온 데이터로부터 12개의 특징을 추출했다. 총 228개의 특징을 추출해 9종의 인공지능 모델을 학습하여 성능 비교 평가를 수행했다. 결과적으로, 학습된 모델은 상담사가 감정적 작업 부하가 높은 상황과 그렇지 않은 상황을 87%의 정확도로 구분해 냈다. 흥미로운 점은 기존 감정-탐지 모델에서 대상의 목소리가 성능 향상에 기여하는 주요한 요인이었지만 본인의 감정을 억누르고 친절함을 유지해야 하는 감정노동의 상황에서는 상담사의 목소리가 포함될 경우 오히려 모델의 성능이 떨어지는 현상을 보였다는 것이다. 그 외에 고객의 목소리, 상담사의 피부 전도도 및 체온이 모델 성능 향상에 중요한 영향을 미치는 특징으로 밝혀졌다. 이의진 교수는 "감정적 작업 부하를 실시간으로 측정할 수 있는 기술을 통해 감정노동의 직무 환경 개선과 정신건강을 보호할 수 있다”며 "개발된 기술을 감정 노동자의 정신건강을 관리할 수 있는 모바일 앱과 연계하여 실증할 예정이다”고 말했다. 중앙대학교 박은지 교수(KAIST 전산학부 박사 졸업)가 제1 저자이며 유비쿼터스 컴퓨팅 분야 국제 최우수 학술지인 「Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies」 2024년 9월호에 게재됐다. 또한, 이 연구는 인간-컴퓨터 상호작용 분야의 최우수 학술대회인 ACM UbiComp 2024에서 발표됐다. (논문제목: Hide-and-seek: Detecting Workers’ Emotional Workload in Emotional Labor Contexts Using Multimodal Sensing, https://doi.org/10.1145/3678593) 이번 연구는 과학기술정보통신부 정보통신기획평가원 ICT융합산업혁신기술개발사업의 지원을 받아 수행됐다.
2025.02.11
조회수 1504
AI로 우주용 전기추력기 개발·고성능 예측
홀추력기는 스페이스X의 스타링크(Starlink) 군집위성이나 NASA의 사이키(Psyche) 소행성 탐사선 등과 같은 여러 고난이도 우주 임무에 활용되는, 플라즈마*를 이용한 고효율 추진 장치로, 핵심적인 우주기술 중 하나다. KAIST 연구진이 인공지능 기법을 사용해 개발한 큐브위성용 홀추력기를 올해 11월에 예정된 누리호 4차 발사에서 큐브위성인 K-HERO에 탑재돼 우주에서 성능 검증을 진행할 예정이라고 밝혔다. *플라즈마(plasma)는 기체가 높은 에너지로 가열되어 전하를 띄는 이온과 전자로 분리된 물질의 네 가지 상태 중 하나로 우주 전기추진 뿐만 아니라 반도체 및 디스플레이 제조공정과 살균장치 등에 널리 활용되고 있다. 우리 대학 원자력및양자공학과 최원호 교수 연구팀이 인공위성이나 우주탐사선의 엔진인 홀 전기 추력기(홀추력기, Hall thruster)의 추력 성능을 높은 정확도로 예측할 수 있는 인공지능 기법을 개발했다고 3일 밝혔다. 홀추력기는 연비가 높아 적은 추진제(연료)를 사용하고도 위성이나 우주선을 크게 가속할 수 있으며, 소모 전력 대비 큰 추력을 발생시킬 수 있다. 이러한 장점을 바탕으로, 추진제 절약이 중요한 우주 환경에서 군집위성의 편대비행 유지, 우주쓰레기 감축을 위한 궤도이탈 기동, 혜성이나 화성 탐사와 같은 심우주 탐사를 위한 추진력 제공 등 다양한 임무에 폭넓게 활용되고 있다. 최근 뉴스페이스 시대에 접어들어 우주산업이 확장됨에 따라 우주 임무가 다양해지고 있고 이에 맞는 홀추력기 수요가 증가하고 있다. 각각의 고유한 임무에 최적화된 고효율 홀추력기를 신속하게 개발하기 위해서는 설계단계에서부터 추력기의 성능을 정확하게 예측하는 기법이 필수적이다. 그러나 기존의 방식들은 홀추력기 내에서 복잡하게 일어나는 플라즈마 현상을 정밀하게 다루지 못하거나, 특정 조건에 한정돼, 성능 예측 정확도가 낮은 한계가 있었다. 연구팀은 홀추력기의 설계, 제작, 시험의 반복 작업에 걸리는 시간과 비용을 획기적으로 줄이는 인공지능을 기반으로 한 정확도가 높은 추력기 성능 예측기법을 개발했다. 2003년부터 국내에서 전기추력기 개발 연구를 처음으로 시작해 관련 연구개발을 주도하고 있는 최원호 교수팀은 자체적으로 개발한 전기추력기 전산 해석 도구를 활용해 생성한 18,000개의 홀추력기 학습데이터를 기반으로 인공신경망 앙상블 구조를 도입해 추력 성능 예측에 적용했다. 양질의 학습데이터를 확보하기 위해 개발된 전산 해석 도구는 플라즈마 물리 현상과 추력 성능을 모델링한다. 전산 해석 도구의 정확성은, 연구팀이 국내 최초로 개발한 10개의 홀추력기로 수행된 100여 개의 실험 데이터와 비교해 평균오차가 10% 이내로 정확도가 높은 것으로 검증됐다. 학습된 인공신경망 앙상블 모델은 홀추력기의 설계 변수에 따라 높은 정확도로 단지 수초 내로 짧은 시간 안에 추력기 성능을 예측할 수 있는 디지털트윈 모델로 작동한다. 특히 기존에 알려진 스케일링 법칙으로는 분석하기 어려웠던 연료 유량이나 자기장과 같은 설계 변수에 따른 추력과 방전전류와 같은 성능지표 변화를 상세히 분석할 수 있다. 연구팀은 이번에 개발한 인공신경망 모델이 자체 개발한 700W급 및 1kW급 홀추력기에서 평균오차 5% 이내, 미 공군연구소에서 개발한 5kW급 고전력 홀추력기에 대해 평균오차 9% 이내의 정확도를 보여주었다. 이번 연구로 개발한 인공지능 예측기법이 다양한 전력 크기의 홀추력기에 폭넓게 적용할 수 있는 것을 입증했다. 최원호 교수는 “연구팀에서 개발한 인공지능 기반 성능 예측기법은 정확도가 높아 인공위성과 우주선의 엔진인 홀추력기의 추력성능 분석과 고효율 저전력 홀추력기 개발에 이미 활용되고 있다. 이 인공지능 기법은 홀추력기 뿐만 아니라 반도체, 표면 처리 및 코팅 등 다양한 산업에서 활용되는 이온빔 소스의 연구개발에도 접목될 수 있다”라고 밝혔다. 또한, 최교수는 “연구팀의 실험실 창업기업으로 전기추진 전문기업인 코스모비㈜와 함께 인공지능 기법을 사용해 개발한 큐브위성용 홀추력기는 올해 11월에 예정된 누리호 4차 발사에서 3U(30x10x10 cm) 큐브위성인 K-HERO에 탑재돼 우주에서 성능 검증을 진행할 예정”이라고 설명했다. 원자력및양자공학과(우주탐사공학학제전공) 박재홍 박사과정 학생이 제1 저자로 참여한 이번 연구 결과는 국제적으로 저명한 인공지능 다학제 학술지인 ‘어드밴스드 인텔리전트 시스템(Advanced Intelligent Systems)’에 2024년 12월 25일에 온라인 게재됐으며, 저널 표지논문(front cover)으로 채택돼 혁신성을 인정받았다. 이번 연구는 한국연구재단 스페이스파이오니어사업(200mN급 고추력 전기추진시스템 개발)의 지원을 받아 수행됐다. (논문 제목: Predicting Performance of Hall Effect Ion Source Using Machine Learning, DOI: https://doi.org/10.1002/aisy.202400555)
2025.02.03
조회수 2032
원하는 소재 개발 인공지능 모퓨전(MOFFUSION)으로
최근 생성형 인공지능은 텍스트, 이미지, 비디오 생성 등 다양한 분야에서 널리 사용되고 있지만, 소재 개발 분야에서는 아직 충분히 활용되지 못하고 있다. 이러한 상황에서 KAIST 연구진이 구조적 복잡성을 지닌 다공성 소재를 생성하는 인공지능 모델을 개발하여, 사용자가 원하는 특성의 소재를 선택적으로 생성할 수 있게 되었다. 우리 대학 생명화학공학과 김지한 교수 연구팀이 원하는 물성을 가진 금속 유기 골격체(Metal-Organic Frameworks, MOF)를 생성하는 인공지능 모델을 개발했다고 23일 밝혔다. 김지한 교수 연구팀이 개발한 생성형 인공지능 모델인 모퓨전(MOFFUSION)은 금속 유기 골격체의 구조를 보다 효율적으로 표현하기 위해, 이들의 공극 구조를 3차원 모델링 기법을 활용해 나타내는 혁신적인 접근 방식을 채택했다. 이 기법을 통해 기존 모델들에서 보고된 낮은 구조 생성 효율을 81.7%로 크게 향상시켰다. 또한, 모퓨전은 생성 과정에서 사용자가 원하는 특성을 다양한 형태로 표현하여 인공지능 모델에 입력할 수 있는 특징이 있다. 연구진은 사용자가 원하는 물성을 숫자, 카테고리, 텍스트 등 다양한 형태로 입력할 수 있으며, 데이터 형태와 관계없이 높은 생성 성능을 보임을 확인했다. 예를 들어, 사용자가 생성하고자 하는 물질의 특성값을 텍스트 형태(예:“30 g/L의 수소 흡착량을 갖는 구조”)로 모델에 입력하면, 모델은 이에 상응하는 물질을 선택적으로 생성한다. 이러한 특징은 소재 개발에 있어 인공지능 모델의 활용성과 편의성을 크게 개선하는 요소로 작용한다. 김지한 교수는 “원하는 물성의 소재를 개발하는 것은 소재 분야의 가장 큰 목표이며 오랜 연구 주제”라며, “연구팀이 개발한 기술은 인공지능을 활용한 다공성 소재 개발에 있어 큰 발전을 이뤘으며, 앞으로 해당 분야에서 생성형 인공지능의 도입을 촉진할 것”이라고 말했다. 우리 대학 생명화학공학과 박준길 박사, 이유한 박사가 공동 제1 저자로 참여한 이번 연구 결과는 국제 학술지 `네이처 커뮤니케이션즈(Nature Communications)'에 지난 1월 2일 게재됐다. (논문명 : Multi-modal conditional diffusion model using signed distance functions for metal-organic frameworks generation) (https://doi.org/10.1038/s41467-024-55390-9) 한편 이번 연구는 과학기술정보통신부의 탑-티어 연구기관 간 협력 플랫폼 구축 및 공동연구 지원사업, 나노 및 소재기술 개발사업, 그리고 한국연구재단 (NRF) 중견연구자 지원사업의 지원을 받아 수행됐다.
2025.01.23
조회수 1715
스스로 학습·수정하는 뉴로모픽 반도체칩 개발
기존 컴퓨터 시스템은 데이터 처리 장치와 저장 장치가 분리돼 있어, 인공지능처럼 복잡한 데이터를 처리하기에는 효율적이지 않다. KAIST 연구팀은 우리 뇌의 정보 처리 방식과 유사한 멤리스터 기반 통합 시스템을 개발했다. 이제 원격 클라우드 서버에 의존하지 않고 의심스러운 활동을 즉시 인식하는 스마트 보안 카메라부터 건강 데이터를 실시간으로 분석할 수 있는 의료기기까지 다양한 분야에 적용될 수 있게 되었다. 우리 대학 전기및전자공학부 최신현 교수, 윤영규 교수 공동연구팀이 스스로 학습하고 오류를 수정할 수 있는 차세대 뉴로모픽 반도체 기반 초소형 컴퓨팅 칩을 개발했다고 17일 밝혔다. 연구팀이 개발한 이 컴퓨팅 칩의 특별한 점은 기존 뉴로모픽 소자에서 해결이 어려웠던 비이상적 특성에서 발생하는 오류를 스스로 학습하고 수정할 수 있다는 것이다. 예를 들어, 영상 스트림을 처리할 때 칩은 움직이는 물체를 배경에서 자동으로 분리하는 법을 학습하며 시간이 지날수록 이 작업을 더 잘 수행하게 된다. 이러한 자가 학습 능력은 실시간 영상 처리에서 이상적인 컴퓨터 시뮬레이션에 견줄 만한 정확도를 달성하며 입증됐다. 연구팀의 주요성과는 뇌와 유사한 구성 요소의 개발을 넘어, 신뢰성과 실용성을 모두 갖춘 시스템으로 완성한 것에 있다. 연구팀은 세계 최초로 즉각적인 환경 변화에 적응할 수 있는 멤리스터 기반 통합 시스템을 개발하며, 기존 기술의 한계를 극복하는 혁신적인 해결책을 제시했다. 이 혁신의 핵심에는 멤리스터(memristor)*라고 불리는 차세대 반도체 소자가 있다. 이 소자의 가변 저항 특성은 신경망의 시냅스 역할을 대체할 수 있게 되고, 이를 활용해 우리 뇌세포처럼 데이터 저장 및 연산을 동시에 수행할 수 있다. *멤리스터: 메모리(memory)와 저항(resistor)의 합성어로 두 단자 사이로 과거에 흐른 전하량과 방향에 따라 저항값이 결정되는 차세대 전기소자 연구팀은 저항 변화를 정밀하게 제어할 수 있는 고신뢰성 멤리스터를 설계하고, 자가 학습을 통해 복잡한 보정 과정을 배제한 효율적인 시스템을 개발했다. 이번 연구는 실시간 학습과 추론을 지원하는 차세대 뉴로모픽 반도체 기반 통합 시스템의 상용화 가능성을 실험적으로 검증했다는 점에서 중요한 의미를 가진다. 이 기술은 일상적인 기기에서 인공지능을 사용하는 방식을 혁신하여 AI 작업 처리를 위해 원격 클라우드 서버에 의존하지 않고 로컬에서 처리할 수 있게 되어, 더 빠르고 사생활 보호가 강화되며 에너지 효율성이 높아질 것이다. 이 기술 개발을 주도한 KAIST 정학천 연구원과 한승재 연구원은 “이 시스템은 책상과 자료 캐비닛을 오가며 일하는 대신 모든 것이 손이 닿는 곳에 있는 스마트 작업 공간과 같다. 이는 모든 것이 한 곳에서 처리돼 매우 효율적인 우리 뇌의 정보 처리 방식과 유사하다”고 설명했다. 전기및전자공학부 정학천 석박통합과정생과 한승재 석박사통합과정생이 제 1저자로 연구에 참여했으며 국제 학술지 `네이처 일렉트로닉스 (Nature Electronics)'에 2025년 1월 8일 자로 온라인 게재됐다. (논문 제목: Self-supervised video processing with self-calibration on an analogue computing platform based on a selector-less memristor array, https://doi.org/10.1038/s41928-024-01318-6) 이번 연구는 한국연구재단의 차세대지능형반도체기술개발사업, 우수신진연구사업, PIM인공지능반도체핵심기술개발사업, 정보통신기획평가원의 한국전자통신연구원연구개발지원사업의 지원을 받아 수행됐다.
2025.01.22
조회수 1693
KAIST 설명가능 인공지능연구센터, 플러그앤플레이 방식의 설명가능 인공지능 프레임워크 공개
KAIST 설명가능 인공지능연구센터(센터장 최재식 교수)는 별도의 복잡한 설정이나 전문 지식 없이도 손쉽게 AI모델에 대한 설명성을 제공할 수 있는 플러그앤플레이(Plug-and-Play) 방식의 설명가능 인공지능 프레임워크를 개발해, 이를 27일 오픈소스로 공개했다. 설명가능 인공지능(Explainable AI, 이하 XAI)이란 AI 시스템의 결과에 영향을 미치는 주요 요소를 사람이 이해할 수 있는 형태로 설명해주는 제반 기술을 말한다. 최근 딥러닝 모델과 같이 내부 의사 결정 프로세스가 불투명한 블랙박스 AI 모델에 대한 의존도가 커지면서 설명가능 인공지능 분야에 대한 관심과 연구가 증가했다. 그러나 지금까지는 연구자와 기업 실무자들이 설명가능 인공지능 기술을 활용하는 것이 몇 가지 이유로 쉽지 않았다. 우선, 딥러닝 모델의 유형별로 적용 가능한 설명 알고리즘들이 서로 달라서 해당 모델에 적용할 수 있는 설명 알고리즘이 무엇인지 알기 위해서는 XAI에 대해 어느 정도 사전지식이 필요하기 때문이다. 두번째로, 대상 모델에 적용할 수 있는 설명 알고리즘을 파악하더라도, 각 알고리즘마다 다른 하이퍼 파라미터를 어떻게 설정해야 최적의 설명 결과를 얻을 수 있을지 이해하는 것은 여전히 어려운 과제이다. 세번째로는 적용된 다수의 설명 알고리즘들 중에 어떤 알고리즘이 가장 정확하고 신뢰할 수 있는 것인지를 정량적으로 평가하기 위해서 또다른 툴을 이용해야 하는 번거로운 과정이 뒤따라야 했다. 이번에 오픈소스로 공개된 플러그앤플레이 설명가능 인공지능 프레임워크(Plug-and-Play XAI Framework, 이하 PnPXAI 프레임워크)는 이러한 어려움을 해결하고자 개발되었으며, AI의 신뢰성이 중요한 다양한 AI시스템 연구개발 현장에서 유용한 도구로 활용될 것으로 기대된다. PnPXAI 프레임워크는 적용 가능한 설명알고리즘을 자동으로 추천하기 위해 모델 구조를 인식하는 탐지모듈(Detector)과 적용가능한 설명 알고리즘을 선별하는 추천모듈(Recommender), 설명 알고리즘을 최적화하는 최적화모듈(Optimizer) 및 설명 결과 평가모듈(Evaluator)로 구성되어 있다. 사용자는 ‘자동설명(Auto Explanation)’ 모드에서 대상 모델과 데이터만 입력하면 설명 알고리즘의 시각적 결과(히트맵 또는 모델 결과에 영향을 끼친 중요한 속성들)와 설명의 정확도를 한번에 확인할 수 있다. 사용자들은 자동설명 모드를 통해 XAI에 대한 기본지식과 사용법을 숙지한 이후에는 프레임워크에 포함된 설명 알고리즘과 평가지표를 원하는 방식으로 자유롭게 활용할 수 있다. 현재 프레임워크에는 이미지, 텍스트, 시계열, 표 데이터 등 다양한 데이터유형을 지원하는 설명 알고리즘들이 제공되고 있다. 특히, 서울대학교(2세부 연구책임자 한보형교수)와 협력을 통해 뇌MRI 기반 알츠하이머병 진단모델에 대한 반예제 설명 알고리즘을 지원하였고, 서강대학교(3세부 연구책임자 구명완교수)와 공동연구를 통해 마비말장애 진단모델에 PnPXAI 프레임워크의 설명 알고리즘을 적용하여 AI 기반 의사결정지원 시스템에서 설명성을 성공적으로 구현하기도 했다. 또한, 한국전자통신연구원(4세부 연구책임자 배경만박사)에서 개발한 LLM(대규모언어모델) 생성결과의 사실성을 검증하는 알고리즘을 프레임워크에 통합하는 등 지원 범위를 지속적으로 확장하고 있다. KAIST 설명가능 인공지능연구센터 최재식 센터장은 “기존 설명가능 인공지능 도구들의 한계를 해결하고, 다양한 도메인에서 실질적으로 활용하기 쉬운 도구를 제공하기 위해 국내 최고의 연구진과 수년간 협력한 성과”라며, “이 프레임워크 공개를 통해 AI 기술의 신뢰성을 높여 상용화에 기여하는 것은 물론, 우리 연구센터가 설명가능 인공지능 분야의 글로벌 연구 생태계를 선도하는 중요한 발판을 마련했다는 점에서 의의가 있다”고 밝혔다. PnPXAI 프레임워크는 현재 국내 및 국제특허 출원을 완료했으며, Apache 2.0 라이선스를 준수하는 경우 누구나 깃허브 페이지[링크]를 통해 사용할 수 있다. 한편, 이 연구는 2022년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구이다. (No. RS-2022-II220984, 플러그앤플레이 방식으로 설명가능성을 제공하는 인공지능 기술 개발 및 인공지능 시스템에 대한 설명 제공 검증)
2024.12.27
조회수 2485
美케이던스社, 80억 상당 AI반도체 장비 우리 대학에 기증
“케이던스 사의 통 큰 기부에 감사드리며, 대한민국 AI 인재 100만 명 양성이라는 원대한 목표 달성과 세상을 혁신할 반도체 연구 실현에 앞장서겠습니다”(이광형 총장) 우리 대학은 미국 소프트웨어 기업인 케이던스 디자인 시스템즈 코리아(Cadence Design Systems, 이하 케이던스)가 반도체 설계 특화 장비인 ‘케이던스 팔라디움 제트원(Cadence Palladium Z1)’*을 우리 대학에 기증한다고 밝혔다. *팔라디움 제트원: 반도체 설계 검증을 위한 초고성능 에뮬레이터 장비로, 하드웨어-소프트웨어 검증 및 디버깅 작업을 1개의 랙 당 5.76억 게이트까지 대용량으로 구현 가능함. 동 장비를 통해 SoC(System On Chip) 개발 단계에서 설계 검증을 더 원활히 수행할 수 있음. 케이던스는 1995년 반도체설계교육센터(IDEC) 설립 이후 우리 대학에 EDA(Electronic Design Automation) 툴 라이센스 및 실습 교육을 약 30년간 지원해왔다. 이 인연을 계기로 반도체 설계 인력 양성에 도움이 되고자 하는 뜻을 담아 기증이 성사됐다. 17일(화) 오전 열리는 기증식에는 이광형 총장, 유회준 인공지능반도체대학원장, 박인철 반도체설계교육센터 소장, 케이던스 신용석 사장, 케이던스 도지훈 상무 등 교내외 관계자들이 참석한다. 기증식에서 박인철 반도체설계교육센터 소장과 조우영 PIM반도체설계연구센터 교수가 기증 경과와 운영 계획을 발표하고, 우리 대학과 케이던스가 업무협약을 체결할 예정이다. 이후 반도체설계교육센터(IDEC)는 팔라디움 제트원 사용법 교육을 신설하고 국내 대학 연구실에서 본 장비를 활용할 수 있도록 시스템·기술 기반을 마련한다. PIM 반도체설계연구센터와 인공지능반도체대학원은 산학협력 연구기관 및 스타트업을 중심으로 장비 사용 환경을 구축한다. 케이던스는 실제 운용을 위한 관리자 교육과 필요한 소프트웨어 등을 지원하기로 하였다. 신용석 케이던스 코리아 사장은 “이번 기증과 우리 대학과의 협력을 통해 반도체 산업을 이끌어갈 우수 인재가 더 많아지길 바란다. 앞으로도 케이던스는 선진 반도체 기술 구현을 위해 최선을 다할 것”이라고 밝혔다. 이광형 총장은“케이던스코리아의 우수 장비 기증에 감사드리며, 이를 통해 반도체 역량 성장의 중요한 발판이 마련된 것을 기쁘게 생각한다. 우리 대학은 반도체 분야 선도기관으로서, 새로운 교육 기회와 혁신적인 연구를 통해 대한민국 반도체 산업의 글로벌 경쟁력 강화에 기여할 것”이라고 전했다. 케이던스는 1983년에 설립된 미국의 다국적 기술 및 컴퓨팅 소프트웨어 기업으로 집적회로, 시스템 온 칩(SoC), 인쇄 회로 기판 및 다중물리 시스템 분석(MSA) 등의 제품 설계를 위한 소프트웨어 및 하드웨어를 제작하는 곳이다. 현재 삼성전자 파운드리 사업부의 EDA 공식 파트너로서 국내 반도체 기업의 칩 설계를 위한 소프트웨어와 하드웨어를 공급하고 있다.
2024.12.17
조회수 2300
<<
첫번째페이지
<
이전 페이지
1
2
3
4
5
6
7
8
9
10
>
다음 페이지
>>
마지막 페이지 19