< (왼쪽부터) 우리 대학 박성준 교수, 고려대학교 천성우 교수, 한양대학교 김종석 박사 >
우리 대학 바이오및뇌공학과 박성준 교수 연구팀이 고려대학교 천성우 교수, 한양대학교 김종석 박사 공동 연구팀과 함께 인간 피부-신경 모사형 인공 감각 인터페이스 시스템을 개발했다고 12일 밝혔다.
이번 연구 결과는 국제 학술지 `네이처 일렉트로닉스(Nature Electronics)'에 2021년 6월 3일 字로 출판됐다. (논문명: Artificial Neural Tactile Sensing System)
가상/증강 현실, 메타버스, 화상 환자를 위한 인공피부, 로봇형 의수/의족 등에 사용될 수 있는 인공 감각 시스템은, 구현해야 할 원리와 그 시스템의 복잡성 때문에 실제 감각기관처럼 만들기 어려운 상황이었다. 특히 사람은 다양한 유형의 촉각 수용기를 통해 (압력, 진동 등) 정보를 조합하여 촉각을 감지하므로, 완벽한 인공 감각 시스템의 구현은 더욱 어려울 수 밖에 없다.
연구팀은 문제 해결을 위해 나노입자 기반의 복합 촉각 센서를 제작하고, 이를 실제 신경 패턴에 기반한 신호 변환 시스템과 연결하는 방법을 사용하였다. 이 두 가지 기술의 조합을 통해 연구팀은 인간의 촉각 인식 프로세스를 최대로 모방하는 인공 감각 인터페이스 시스템을 구현하는데 성공했다.
연구팀은 우선 압전재료 및 압전 저항성 재료의 조합으로 이루어진 전자 피부를 제작했다. 이 센서는 나노입자의 적절한 조합을 통해 피부 내의 압력을 감지하는 늦은 순응 기계적 수용기(SA mechanoreceptor)와 진동을 감지하는 빠른 순응 기계적 수용기(FA mechanoreceptor)를 동시에 모사할 수 있다는 특징을 가지고 있다. 해당 센서를 통해 생성된 전위는, 연구팀이 제작한 회로 시스템을 통해 실제 감각 신호와 같은 형태의 패턴으로 변환된다. 이때 생체 내 상황을 최대한 모사하기 위해, 실제 감각신경을 추출, 다양한 감각에 의한 신호를 측정하여 함수화하는 방법이 사용됐다.
해당 시스템을 동물 모델에 적용한 결과, 연구팀은 인공 감각 시스템에서 발생한 신호가 생체 내에서 왜곡 없이 전달되며, 근육 반사 작용 등 생체 감각 관련 현상들을 구현할 수 있음을 확인했다. 또한 연구팀은 지문 구조로 만든 감각 시스템을 20여 종의 직물과 접촉함으로써, 딥 러닝 기법을 통해 직물의 질감을 99% 이상 분류할 수 있을 뿐만 아니라 학습된 신호를 기반으로 인간과 동일하게 예측할 수 있음을 보여줬다.
< 그림 1. 인간 피부-신경 모사형 인공 감각 인터페이스 시스템 개요 >
박성준 교수는 "이번 연구는 실제 신경 신호의 패턴 학습을 바탕으로 한 인간 모사형 감각 시스템을 세계 최초로 구현했다는 데 의의가 있다. 해당 연구를 통해 향후 더욱 현실적인 감각 구현이 가능할 뿐만 아니라, 연구에 사용된 생체신호 모사 기법이 인체 내 다양한 종류의 타 감각 시스템과 결합될 경우 더욱 큰 시너지를 낼 수 있으리라 기대한다ˮ 라고 말했다.
한편 이번 연구는 한국연구재단 신진연구사업, 범부처의료기기개발 사업, 나노소재원천기술개발사업, 차세대 지능형 반도체 개발사업, KK-JRC 스마트 프로젝트, KAIST 글로벌 이니셔티브 프로그램, Post-AI 프로젝트 사업의 지원을 받아 수행됐다.
< 그림 2. 인공 감각 시스템을 묘사한 이미지 >
기존 공장 현장에 컨베이어 라인 등 추가로 설비를 도입해야 할 때 제조AI 메타버스 기술을 활용하면 사전에 탐색한 경험을 통해 검증된 동선으로 빠른 적응과 향상된 성과를 기대할 수 있다. 우리 대학은 4월 17일(월)부터 4월 21일(금)까지 5일간 독일 하노버에서 개최되는 ‘2023 하노버 산업박람회(Hannover Messe 2023)’에 ‘제조 AI 메타버스 팩토리 체험관’을 운영할 계획임을 13일(목) 밝혔다. 기관 내 제조AI빅데이터센터를 중심으로 유니스트(UNIST), 한양대학교, (주)디지포레, (주)ABH, (주)KEMP와 협업 컨소시엄을 구성해 ‘제조AI 메타버스 팩토리’ 체험관 부스를 마련하고 관람객들을 맞이할 예정이다. 관람객은 가상현실(VR) 장비를 착용하고 마치 현장 안에 있는 것처럼 1단계부터 3단계까지 원하는 체험이 가능하다. 1단계에서는 제조 데이터를 수집, 저장, 분석하는 과정
2023-04-13우리 대학 전기및전자공학부 유회준 교수 연구팀이 실사에 가까운 이미지를 렌더링할 수 있는 인공지능 기반 3D 렌더링을 모바일 기기에서 구현, 고속, 저전력 인공지능(AI: Artificial Intelligent) 반도체*인 메타브레인(MetaVRain)’을 세계 최초로 개발했다고 7일 밝혔다. * 인공지능 반도체 : 인식·추론·학습·판단 등 인공지능 처리 기능을 탑재하고, 초지능·초저전력·초신뢰 기반의 최적화된 기술로 구현한 반도체 연구팀이 개발한 인공지능 반도체는 GPU로 구동되는 기존 레이 트레이싱 (ray-tracing)* 기반 3D 렌더링을 새로 제작된 AI 반도체 상에서 인공지능 기반 3차원으로 만들어, 기존의 막대한 비용이 들어가는 3차원 영상 캡쳐 스튜디오가 필요없게 되므로 3D 모델 제작에 드는 비용을 크게 줄이고, 사용되는 메모리를 180배 이상 줄일 수 있다. 특히 블렌더(Blend
2023-03-07우리 대학 전기및전자공학부 김상현 교수 연구팀이 *모놀리식 3차원 집적의 장점을 활용한 1,600PPI*에 상응하는 마이크로LED 디스플레이를 구현하는 데 성공했다고 29일 밝혔다. 1,600 PPI는 초고해상도 증강현실(AR)/가상현실(VR) 디스플레이에 적용 가능한 해상도로써 2020년 출시된 오큘러스(Oculus) 社(現 메타(Meta))의 메타 퀘스트 2(Meta quest 2, 442 PPI)의 3.6배에 해당하는 디스플레이 해상도다. ☞ 모놀리식 3차원 집적: 하부 소자 공정 후, 상부의 박막층을 형성하고 상부 소자 공정을 순차적으로 진행함으로써 상하부 소자 간의 정렬도를 극대화할 수 있는 기술로 궁극적 3차원 집적 기술로 불린다. ☞ PPI: Pixel per Inch. 디스플레이에서 1인치에 포함되는 픽셀의 갯수 전기및전자공학부 박주혁 박사과정과 금대명 박사가 제1 저자로 주도하고 백우진 박사과정과 대만의 제스퍼 디스플레이(Jasper Display)의 존슨
2022-07-29우리 대학이 과학기술정보통신부의 정보통신방송혁신인재 양성사업의 일환인 ‘메타버스 융합대학원 지원사업’에 최종 선정됐다. 이에 과기정통부는 올해 5억원, 이후 단계평가를 거쳐 연간 10억원, 최장 6년간 총 55억원을 우리 대학에 지원하고, 우리 대학은 올해 가을학기부터 메타버스 융합대학원을 설립해 운영할 예정이다. 메타버스 융합대학원에서는 ▲콘텐츠 기획·개발·사업화 교육과정 제공 ▲기업과 함께하는 문제해결형 프로젝트를 통한 실무역량 강화 ▲해외 공동 연구를 통한 글로벌 리더십 함양 ▲인문 사회, 문화예술, 산업 분야와 융합한 전문 교육 등을 수행한다. 이를 위해 공과대학, 기술경영대학, 인문사회융합과학대학 총 27명의 유수 교수진이 교육에 참여한다. 우리 대학 외에도 배순민 KT 융합기술원 AI2XL 연구소장, 하태진 버넥트 대표도 겸직교수로 참여해 산업현장 경험을 공유한다. 이후에도 지속적인 전임·겸임 교수진 충원
2022-05-26우리 대학과 디플래닉스(Dplanex)가 24일(화) 대전 본원 IT융합빌딩에서 ‘KYOBO-DPLANEX-KAIST(이하 KDK) 미래보험 AI연구센터’ 개소식을 가졌다. KDK 미래보험 AI연구센터는 급변하는 보험산업에서 AI기반의 디지털 혁신 기술을 발굴하고 중장기적 관점의 미래 보험산업을 전망하는 산학협력 전문 연구센터다. 우리 대학 김대식 교수가 센터장인 KDK는 빅데이터, 딥러닝, AI 등 관련 기술 전문 교수진, 연구인력으로 구성됐으며, 디플래닉스 및 교보생명보험그룹 전문가들과의 협업을 통해 실무 중심의 데이터 분석 결과를 도출하고 미래보험의 방향성을 제시하고자 설립됐다. 구체적으로 KDK 미래보험 AI연구센터는 디플래닉스가 선정한 ▲메타버스 등 새로운 디지털 플랫폼에서의 보험영업 관리 ▲AI기반 상품 트렌드 및 리스크 예측 ▲데이터 중심 고객관리 연구 과제를 수행한다. 특히 올해는 가상 환경에서 아바타의 제스처와 대화를 통해 보험 가입
2022-05-26