-
KAIST 사이언스 아웃리치 프로그램 참가자 모집
우리대학이 소외계층 중·고등학생을 위한 'KAIST 사이언스 아웃리치 프로그램(KAIST Science Outreach Program, 이하 KSOP)' 참가자를 모집한다.
중학교 재학생 중에서 학교장의 추천을 받은 사회통합대상자·수업이 가능한 신체장애 학생·북한 이탈주민·아동복지시설 보호 아동·소년·소녀 가장 학생 등이 지원할 수 있다. 고등학생은 1학년을 대상으로 기존 정원에서 남아있는 자리가 발생한 지역에 한해 지원자를 모집한다.
참가 신청서는 KSOP 홈페이지에서 지난 25일부터 접수 중인데 6월 19일 마감된다. 100% 서류 전형을 통해 선발된 최종 지원 대상자에게는 고3 학업 과정을 마칠 때까지 프로그램의 모든 교육 과정을 전액 무료로 제공한다. 또한, 교육 시 식사와 간식이 제공되며 가을 및 봄학기 학습 멘토링·여름 캠프 참가 자격·우수 학생 겨울 심화 캠프 참가 자격 등을 부여한다.
특히, 이번 모집을 통해 선발되는 신규 참여 학생들에게는 코로나19를 계기로 도입된 온라인 학습 멘토링을 제공할 예정이다.
지난 2014년 대전 지역을 중심으로 시작된 KSOP는 KAIST가 교육격차 해소를 목적으로 추진해온 교육 기부 프로그램이다. 소외계층 학생들에게 과학에 대한 지적 호기심과 학습 동기를 유발할 수 있는 교육 기회를 제공하기 위해 마련됐다. 이와 함께 지속적인 관심과 지원을 통해 꿈과 비전을 지닌 과학 인재로 성장할 수 있는 환경을 조성해주는 것이 주된 목표다.
2015년부터는 과학기술정보통신부의 지원을 받아 전국으로 확대해 운영하고 있으며, 지난해까지 중1~고3 학생 2천370명에게 학습 멘토링을 제공했다.
이 프로그램에 참여하는 학생들은 자기 주도적 온라인 학습을 선행한 후 전국 10개 수업장에서 월평균 2회가량 수학·과학 과목의 오프라인 교육을 받는다. 방학 중에는 KAIST에서 과학탐구 캠프를 개최하며, 50여 명의 KAIST 대학생 멘토들이 전체 교육 과정에 동참한다. 특히, 이공계 진로 멘토링을 통해 과학고에서 과기특성화대학 진학으로 이어지는 진로 사다리를 구축하는 데 힘쓰고 있다.
실제로 최근 2년간 KAIST·서울대·성균관대·POSTECH 입학생 11명을 포함해 전국 35개 대학에 51명의 합격생과 2명의 취업자도 배출했다. 합격자의 절반이 넘는 36명은 이공계 전공을 선택해 진학했다. 졸업생 중 일부는 대학생 멘토로 KSOP에 복귀해 후배 중·고생들에게 멘토링을 제공하고 있다.
중3 때부터 KSOP에 참가해 지난 2019년 KAIST에 입학한 이창민(19, 전산학부 2학년) 씨는 "KSOP을 통해 막연하게만 생각하던 이공계열 진학에 확신을 가질 수 있었다ˮ며 "열여섯의 어린 나이부터 KAIST 재학생들과 맺은 인연은 이공계 분야 진학과 관련해 정보를 얻을 수 있는 굉장히 중요한 계기가 됐다ˮ고 경험담을 전했다.
코로나19로 인해 대면 학습 멘토링이 어려워진 올해는 지난 4월 말부터 온라인을 통해 상시 학습 멘토링을 시행하고 있다. 학년별로 수학과 과학을 담당하는 KAIST 멘토가 학습 과제를 부여해 학생이 결과물을 제출하면 채점을 통해 피드백하는 방식이다. 그 외에도 학습 및 진로 관련 질의 사항을 상시 응답해주는 형태로 운영 중이며, 자체 조사결과 기존 참여 학생 550여 명 및 학부모의 만족도가 96.4%로 매우 높게 나타났다.
KSOP를 운영하는 KAIST 과학영재교육연구원 곽시종 원장은 "KSOP은 KAIST가 지금까지 국민 여러분께 받아온 사랑을 조금이나마 갚고자 만든 교육 기부프로그램ˮ이라고 전했다.
곽 원장은 이어 "지금은 비록 주변 환경의 문제로 어려움을 겪고 있다 해도 자신의 가능성을 믿고 도전하는 학생이라면 얼마든지 우리나라의 자랑스러운 이공계 인재가 될 수 있다ˮ 면서 "이를 돕는 KSOP에 많은 학생들이 참여해 스스로의 미래를 열어가길 바란다.ˮ 라고 강조했다.
2020.05.30
조회수 16817
-
정확성이 획기적으로 향상된 코로나19 영상 진단 기술 개발
우리 대학 바이오및뇌공학과 예종철 교수 연구팀이 흉부 단순 방사선 촬영 영상으로 신종 코로나바이러스 감염증(이하 코로나19) 진단의 정확성을 획기적으로 개선한 인공지능(AI) 기술을 개발했다.
예 교수 연구팀이 개발한 인공지능 기술을 사용해 코로나19 감염 여부를 진단한 결과, 영상 판독 전문가의 69%보다 17%가 향상된 86%이상의 우수한 정확성을 보였다고 KAIST 관계자는 설명했다.
이 기술을 세계적으로 대유행하는 코로나19 선별 진료(Triage)체계에 도입하면 상시 신속한 진단이 가능할 뿐만 아니라 한정된 의료 자원의 효율적인 사용에 큰 도움을 줄 것으로 기대된다.
오유진 박사과정과 박상준 박사과정이 공동 1저자로 참여한 이 연구 결과는 국제 학술지 `아이트리플이 트랜잭션 온 메디컬 이미징(IEEE transactions on medical imaging)'의 `영상기반 코로나19 진단 인공지능기술' 특집호 5월 8일 字 온라인판에 게재됐다. (논문명 : Deep Learning COVID-19 Features on CXR using Limited Training Data Sets)
현재 전 세계적으로 확진자 500만 명을 넘긴 코로나19 진단검사에는 통상 역전사 중합 효소 연쇄 반응(RT-PCR, Reverse Transcription Polymerase Chain Reaction)을 이용한 장비가 사용된다. RT-PCR 검사의 정확성은 90% 이상으로 알려져 있으나, 검사 결과가 나오기까지는 많은 시간이 걸리며 모든 환자에게 시행하기에 비용이 많이 든다는 단점이 있다.
컴퓨터 단층촬영(CT, Computed Tomography)을 이용한 검사도 비교적 높은 정확성을 보이지만 일반적인 X선 단순촬영 검사에 비해 많은 시간이 소요되고 바이러스에 의한 장비의 오염 가능성 때문에 선별 진료에 사용되기 어렵다.
흉부 단순 방사선 촬영(CXR, Chest X-ray)은 여러 폐 질환에서 표준 선별 검사로 활용되고 있지만 코로나19에는 RT-PCR와 CT 검사에 비해 정확성이 현저하게 떨어진다. 그러나, 최근 팬데믹으로 세계 각국에서 확진자 수가 급증함에 따라 비용이 적게 들어가고 검사방법이 용이한 CXR 검사를 정확성을 높여 활용하자는 요구가 증가하고 있다.
그동안 심층 학습(Deep Learning) 기법을 적용해 CXR 영상을 통해 코로나19를 진단하는 여러 연구사례가 보고되고 있지만 진단 정확성을 높이기 위해서는 많은 양의 데이터 확보가 필수적이며 현재와 같은 비상 상황에서는 일관되게 정제된 대량의 데이터를 수집하기가 극히 어렵다.
예 교수 연구팀은 자체 개발한 전처리(Preprocessing)와 국소 패치 기반 방식(Local Patch-based Approach)을 통해 이런 문제점을 해결했다. 적은 데이터 세트에서 발생할 수 있는 영상 간 이질성(Heterogeneity)을 일관된 전처리 과정으로 정규화한 뒤, 국소 패치 기반 방식으로 하나의 영상에서 다양한 패치 영상들을 얻어냄으로써 이미지의 다양성을 확보했다.
또 국소 패치 기반 방식의 장점을 활용한 새로운 인공지능 기술인 `확률적 특징 지도 시각화(Probabilistic Saliency Map Visualization)' 방식을 활용해 CXR 영상에서 코로나19 진단에 중요한 부분을 고화질로 강조해주는 특징 지도를 만들었는데 이 지도가 진단 영상학적 특징과 일치하는 것을 확인했다.
예종철 교수는 "인공지능 알고리즘 기술을 환자의 선별 진료에 활용하면 코로나19 감염 여부를 상시 신속하게 진단할 수 있고 이를 통해 가능성이 낮은 환자를 배제함으로써 한정된 의료 자원을 보다 우선순위가 높은 대상에게 효율적으로 배분할 수 있게 해줄 것ˮ 이라고 말했다.
한편, 이 연구는 한국연구재단 중견연구자지원사업의 지원을 받아 수행됐다.
2020.05.25
조회수 12086
-
피부형 센서 패치 하나로 사람 움직임을 측정하는 기술 개발
우리 대학 전산학부 조성호 교수 연구팀이 서울대 기계공학과 고승환 교수 연구팀과 협력 연구를 통해 딥러닝 기술을 센서와 결합, 최소한의 데이터로 인체 움직임을 정확하게 측정 가능한 유연한 `피부 형 센서'를 개발했다.
공동연구팀이 개발한 피부 형 센서에는 인체의 움직임에 의해 발생하는 복합적 신호를 피부에 부착한 최소한의 센서로 정밀하게 측정하고, 이를 딥러닝 기술로 분리, 분석하는 기술이 적용됐다.
이번 연구에는 김민(우리 대학), 김권규(서울대), 하인호(서울대) 박사과정이 공동 제1 저자로 참여했으며 국제 학술지 `네이처 커뮤니케이션스(Nature Communications)' 5월 1일 字 온라인판에 게재됐다. (논문명 : A deep-learned skin decoding the epicentral human motions).
사람의 움직임 측정 방법 중 가장 널리 쓰이는 방식인 모션 캡처 카메라를 사용하는 방식은 카메라가 설치된 공간에서만 움직임 측정이 가능해 장소적 제약을 받아왔다. 반면 웨어러블 장비를 사용할 경우 장소제약 없이 사용자의 상태 변화를 측정할 수 있어, 다양한 환경에서 사람의 상태를 전달할 수 있다.
다만 기존 웨어러블 기기들은 측정 부위에 직접 센서를 부착해 측정이 이뤄지기 때문에 측정 부위, 즉 관절이 늘어나면 더 많은 센서가 수십 개에서 많게는 수백 개까지 요구된다는 단점이 있다.
공동연구팀이 개발한 피부 형 센서는 `크랙' 에 기반한 고(高) 민감 센서로, 인체의 움직임이 발생하는 근원지에서 먼 위치에 부착해서 간접적으로도 인체의 움직임을 측정할 수 있다. `크랙' 이란 나노 입자에 균열이 생긴다는 뜻인데, 연구팀은 이 균열로 인해 발생하는 센서값을 변화시켜 미세한 손목 움직임 변화까지 측정할 수 있다고 설명했다.
연구팀은 또 딥러닝 모델을 사용, 센서의 시계열 신호를 분석해 손목에 부착된 단 하나의 센서 신호로 여러 가지 손가락 관절 움직임을 측정할 수 있게 했다. 사용자별 신호 차이를 교정하고, 데이터 수집을 최소화하기 위해서는 전이학습(Transfer Learning)을 통해 기존 학습된 지식을 전달했다. 이로써 적은 양의 데이터와 적은 학습 시간으로 모델을 학습하는 시스템을 완성하는 데 성공했다.
우리 대학 전산학부 조성호 교수는 "이번 연구는 딥러닝 기술을 활용해 실제 환경에서 더욱 효과적으로 사람의 실시간 정보를 획득하는 방법을 제시했다는 점에서 의미가 있다ˮ며 "이 측정 방법을 적용하면 웨어러블 증강현실 기술의 보편화 시대는 더욱 빨리 다가올 것ˮ 이라고 예상했다.
한편, 이번 연구는 한국연구재단 기초연구사업(선도 연구센터 지원사업 ERC)과 기초연구사업 (중견연구자)의 지원을 받아 수행됐다.
< 피부형 센서 패치로 손가락 움직임 측정 모습 >
2020.05.20
조회수 10964
-
초저조도/초고조도 환경에서도 모션 블러 없는 고화질 및 고해상도 영상 생성이 가능한 알고리즘 개발
우리 대학 기계공학과 윤국진 교수 연구팀이 영국 임페리얼 칼리지 김태균 교수 연구팀과 GIST 최종현 교수 공동 연구팀과의 2건의 공동 연구를 통해 이벤트 카메라를 활용한 고화질 및 고해상도 영상 생성 알고리즘들을 개발했다.
연구팀은 이번에 개발한 알고리즘들을 통해 기존의 RGB 기반 카메라가 영상을 획득하지 못하는 초저조도/초고조도 환경에서도 이벤트 카메라(Event Camera)를 활용하여 고화질 및 고해상도 영상을 생성할 수 있고, 특히 이벤트 카메라의 장점을 살려 초고속의 움직임에도 모션 블러(motion blur, 빠른 움직임에 의한 영상 열화) 없는 고프레임율의 영상을 생성할 수 있다고 밝혔다.
이벤트 카메라는 카메라 각 화소에 입사하는 빛의 세기의 변화에 반응하여 광역동적범위(High Dynamic Range)에서 매우 짧은 지연 시간을 갖는 비동기적 이벤트 데이터를 영상 정보로 제공하기 때문에, 기존 RGB 카메라가 영상을 획득할 수 없었던 고조도/저조도 환경에서도 영상 데이터 획득이 가능하고 또한 초고속 움직임을 갖는 피사체에 대한 영상 데이터 획득이 가능하다는 장점이 있다.
하지만 기존의 영상과는 다른 형태의 영상 정보를 제공하기 때문에 기존의 영상 이해 기술을 접목시키기 어렵고 또한 센서의 제약으로 인해 영상의 해상도가 낮다는 단점이 있다. 연구팀은 이벤트 카메라의 장점을 유지하면서 이와 같은 문제를 해결하기 위해 이벤트 데이터로부터 고화질의 초고해상도의 영상을 생성해 내기 위한 최적화된 심층 신경망과 학습 알고리즘들을 제안하였다. 제안된 알고리즘들은 이벤트 카메라로부터 획득된 이벤트 데이터를 일정 시간 동안 누적하여 딥러닝 기반의 합성곱 신경망을 통해 영상을 생성하는 방식으로, 두 공동 연구에서 각각 교사 학습/비교사 학습 기반의 알고리즘을 제안하였는데, 제안된 두 알고리즘들 모두 이벤트 카메라의 장점을 유지할 수 있어 초당 최대 100만 프레임의 영상 생성이 가능하여 조명의 변화가 극심한 환경이나 고속 움직임에 대한 분석이 필요한 다양한 분야에 적용 가능할 것으로 기대된다.
윤국진 교수는 “본 기술은 이벤트 카메라를 활용한 영상 기반 상황 인식을 위한 기술로서, 기존 RGB 카메라로는 검출이 어려운 조명 변화가 극심한 상황에서 사용될 수 있고, 초고속 움직임에 대한 분석이 가능하기 때문에 자율주행 자동차, 드론, 로봇 등에 다양하게 활용될 것으로 기대한다.”고 말했다.
Mohammad Mostafavi 박사과정(GIST)이 1저자로 참여한 공동 연구와 Wang Lin 박사과정(KAIST)이 1저자로 참여한 공동 연구 논문들은 오는 6월에 개최 예정인 컴퓨터 비전/기계학습 분야의 국제 학술대회인 ‘IEEE Conference on Computer Vision and Pattern Recognition (CVPR)에 각각 구술/포스터 논문으로 발표될 예정이다. (논문명: (1) Learning to Super Resolve Intensity Images from Events, 이벤트를 활용한 초고해상도 이미지 생성 학습법, (2) EventSR: From Asynchronous Events to Image Reconstruction, Restoration, and Super-Resolution via End-to-End Adversarial Learning, 적대적 신경망 학습을 통한 비동기적 이벤트의 이미지로의 재구성, 복원 및 초해상도 연구)
한편, 이번 연구는 한국연구재단 중견연구자지원사업(NRF-2018R1A2B3008640)과 차세대정보・컴퓨팅기술개발사업(NRF-2017M3C4A7069369)의 지원을 받아 수행됐다.
2020.05.12
조회수 9408
-
이성주 교수, 스마트폰으로 사물 두드려 인식하는 노커(Knocker) 기술 개발
〈 왼쪽부터 공태식 박사과정, 조현성 석사과정, 이성주 교수 〉
우리 대학 전산학부 이성주 교수 연구팀이 스마트폰을 사물에 두드리는 것만으로 사물을 인식할 수 있는 ‘노커(Knocker)’ 기술을 개발했다.
이번 연구 결과는 기존 방식과 달리 카메라나 외부 장치를 사용하지 않아 어두운 곳에서도 식별에 전혀 지장이 없고, 추가 장비 없이 스마트폰만으로 사물 인식을 할 수 있어 기존 사물 인식 기술의 문제를 해결할 수 있을 것으로 기대된다.
공태식 박사과정, 조현성 석사과정, 인하대학교 이보원 교수가 참여한 이번 연구 결과는 9월 13일 유비쿼터스 컴퓨팅 분야 국제 최우수학회 ‘ACM 유비콤(ACM UbiComp)’에서 발표됐다. (논문명 : Knocker: Vibroacoustic-based Object Recognition with Smartphones)
기존의 사물 인식 기법은 일반적으로 두 종류로 나뉜다. 첫째는 촬영된 사진을 이용하는 방법으로 카메라를 이용해 사진을 찍어야 한다는 번거로움과 어두운 환경에서는 사용하지 못한다는 단점이 있다. 둘째는 RFID 등의 전자 태그를 부착해 전자신호로 구분하는 방법으로 태그의 가격 부담과 인식하고자 하는 모든 사물에 태그를 부착해야 한다는 비현실성 때문에 상용화에 어려움을 겪었다.
연구팀이 개발한 노커 기술은 카메라와 별도의 기기를 쓰지 않아도 사물을 인식할 수 있다. 노커 기술은 물체에 ‘노크’를 해서 생긴 반응을 스마트폰의 마이크, 가속도계, 자이로스코프로 감지하고, 이 데이터를 기계학습 기술을 통해 분석해 사물을 인식한다.
연구팀은 책, 노트북, 물병, 자전거 등 일상생활에서 흔히 접할 수 있는 23종의 사물로 실험한 결과 혼잡한 도로, 식당 등 잡음이 많은 공간에서는 83%의 사물 인식 정확도를 보였고, 가정 등 실내 공간에서의 사물 인식 정확도는 98%에 달하는 것을 확인했다.
연구팀의 노커 기술은 스마트폰 사용의 새로운 패러다임을 제시했다. 예를 들어 빈 물통을 스마트폰으로 노크하면 자동으로 물을 주문할 수 있고, IoT 기기를 활용하여 취침 전 침대를 노크하면 불을 끄고 알람을 자동 설정하는 등 총 15개의 구체적인 활용 방안을 선보였다.
이성주 교수는 “특별한 센서나 하드웨어 개발 없이 기존 스마트폰의 센서 조합과 기계학습을 활용해 개발한 소프트웨어 기술로, 스마트폰 사용자라면 보편적으로 사용할 수 있어 의미가 있다”라며 “사용자가 자주 이용하는 사물과의 상호 작용을 보다 쉽고 편하게 만들어 주는 기술이다”라고 말했다.
이 연구는 한국연구재단 차세대정보컴퓨팅기술개발사업과 정보통신기획평가원 정보통신․방송 기술개발사업 및 표준화 사업의 지원을 통해 수행됐다.
연구에 대한 설명과 시연은 링크에서 확인할 수 있고, ( https://www.youtube.com/watch?v=SyQn1vr_HeQ&feature=youtu.be ) 자세한 정보는 프로젝트 웹사이트에서 볼 수 있다. ( https://nmsl.kaist.ac.kr/projects/knocker/ )
□ 그림 설명
그림1. 물병에 노크 했을 때의 '노커' 기술 예시
그림2. 23개 사물에 대해 스마트폰 센서로 추출한 노크 고유 반응 시각화
2019.10.01
조회수 10074
-
박성준 박사과정, 2019 구글 PhD 펠로우 선정
〈 박성준 박사과정 〉
우리 대학 전산학부 박성준 박사과정(지도교수 오혜연)이 2019년 구글 PhD 자연어처리(Natural Language Processing) 부문 펠로우에 선정됐다.
2009년부터 시작된 구글 PhD 펠로우십 프로그램은 매년 컴퓨터 과학과 관련된 유망한 분야에서 연구 업적이 훌륭하고 미래가 유망한 대학원생을 발굴하고 지원하는 프로그램이다.
선정된 학생들에게는 장학금과 펠로우십 서밋 참여, 인턴십 기회, 구글 각 분야의 전문가 멘토의 연구 토의 및 피드백 등을 제공한다.
올해는 북미, 유럽, 아시아, 아프리카의 대학에서 50여 명의 박사과정 학생들이 선발됐으며, 아시아에서는 한국 학생 3명을 포함해 10명의 학생이 선발됐다.
박성준 박사과정은 기계학습 기반 자연어처리 기법을 활용한 전산심리치료(Computational Psychotherapy) 관련 연구 성과를 인정받아 구글 PhD 펠로우에 선정됐다.
또한, 기계학습 기반 자연어처리에서 널리 사용되는 어휘의 분산표상 학습 기법을 한국어에 적용하는 방법을 제안했고, 학습된 분산표상을 해석하는 방법을 2017, 2018년에 각각 자연어처리 분야 최고 수준의 국제학술대회 ACL(Annual Conference of the Association for Computational Linguistics), EMNLP(Conference on Empirical Methods in Natural Language Processing)에 발표했다.
박 박사과정은 이를 확장해 심리상담 대화록에서 내담자의 언어 반응을 내담자 요인에 따라 분류하는 기준 및 기계학습 모델을 제안해 자연어처리 분야 최고 수준의 국제학술대회 NAACL(Annual Conference of the North American Chapter of the Association for Computational Linguistics)에서 발표했다.
최근에는 인공신경망 기반 대화 생성 모델 개발, 텍스트에서 복합적인 감정 추출 및 예측, 전산 심리치료 애플리케이션 개발 연구 또한 현재 활발하게 진행하고 있다.
2019.09.16
조회수 10079
-
한동수 교수, 크라우드소싱 기반의 실내 위치인식 기술 개발
〈 한동수 교수 〉
우리 대학 전산학부 한동수 교수 연구팀(지능형서비스통합 연구실)이 크라우드소싱 기반의 실내 위치 인식 기술을 개발했다.
이번 기술은 스마트폰에 탑재된 다양한 센서를 통해 수집된 신호를 기반으로 무선랜 신호(일명 핑거프린트)의 수집 위치를 자동으로 라벨링하는 인공지능 기법이다.
무선랜 신호가 존재하고 스마트폰이 사용되는 건물이면 어디든 적용할 수 있고 정확도가 높아 도심의 실내 위치 인식 시스템 구축비용을 획기적으로 줄일 수 있을 것으로 기대된다.
세계적인 주요 IT 기업들은 실내 환경에서 정확도 높은 위치정보를 제공하기 위해 다양한 노력을 해 왔지만, 정확도 높은 라디오맵(특정 지역이나 건물의 신호 특성) 구축에 많은 어려움을 겪고 있다. 주로 활용되는 와이파이 포지셔닝 시스템(WPS)는 건물의 층을 구분하지 못한다는 한계가 있다.
연구팀은 문제 해결을 위해 우선 불특정 다수의 스마트폰을 통해 수집된 무선신호를 클러스터링을 통해 건물별로 분류한 뒤 기압 정보를 통해 다시 층별로 분류했다. 연구팀은 날씨 변화로 인한 기압 정보 측정에 어려움을 겪던 기존 기술의 한계를 극복하고 수집된 무선신호를 층별로 구분하는 기법을 새롭게 개발했다.
연구팀은 새로 개발한 반자율학습 위치 라벨링 AI 기법을 통해 무선신호의 수집 위치를 라벨링했다. 관성 센서 기반의 관성항법(Pedestrian Dead Reckoning) 기법을 접목해 초기 라디오맵을 구축했고, 관성 센서로부터 얻어지는 신호 정보 없이 수집된 무선신호는 지역 탐색과 전역 탐색을 반복적으로 수행하는 최적화 기계학습 알고리즘을 통해 수집 위치를 최적화했다.
연구팀은 지하 2층, 지상 6층의 12만 평 규모의 실내 쇼핑몰을 대상으로 정확도를 측정한 결과 3~6미터 수준의 정확도를 보임을 확인했다. 층 구분 정확도도 95% 이상 가능해 수작업을 통한 정확도를 넘어서는 결과를 보였고, 도시 전체 건물에 적용했을 때도 유사한 결과를 얻을 수 있을 것으로 예상했다.
이번에 개발한 기술을 주요 IT 기업, 통신사, 온라인 쇼핑사의 앱을 통해서 수집된 신호에 적용하면 도시 및 국가 규모의 실내 위치 인프라를 손쉽게 구축할 수 있을 것으로 예상된다.
한동수 교수는 “대규모 무선신호를 수집할 수 있는 기업이 해당 기술을 도입하면 가까운 미래에 대부분의 실내 공간에서도 5~10미터 수준의 정확도 높은 위치 인식 서비스가 제공될 수 있을 것이다”라며 “실내외 통합 내비게이션, 응급 호출 서비스 등 스마트시티를 구현하는 데 유용하게 활용될 수 있을 것이다”라고 말했다.
□ 그림 설명
그림1.KAILOS 개념도
2019.06.10
조회수 6359
-
2019 KAIST 교육혁신의 날 개최
우리대학이 10일 대전 본원 학술문화관(E9) 5층 정근모컨퍼런스홀에서 ‘제1회 2019 KAIST 교육혁신의 날(KAIST Education Innovation Day)’을 개최한다.
이 행사는 KAIST가 교육 혁신을 이룬 교원을 포상하고 격려하며, 우수 사례를 학내 구성원 및 외부와의 공유를 통해 교육 혁신의 가치를 확산하기 위해 올해 처음으로 만들었는데 KAIST 동문장학재단 임형규 이사장과 발전재단 이수영 회장이 기부한 기금이 밑거름이 됐다.
KAIST 관계자는 “4차 산업혁명 시대를 선도할 수 있는 역량 있는 인재 육성과 교육 혁신에 대한 필요성이 증대되는 시대적 요구를 반영해 KAIST 교육혁신의 날을 제정, 시행키로 했다”고 말했다.
KAIST 핵심가치인 창의·도전·배려정신을 함양한 인재양성, 융·복합 교육 및 메타지식 확산 등에 기여한 교원에게 수여하는 ‘링크제니시스 베스트 티처 어워드(LINKGENESIS Best Teacher Award)’ 대상에는 이태억 교수(산업및시스템공학과)가 선정됐다. 우수상은 한순규 교수(화학과)와 김영철 교수(원자력및양자공학과)가 받는다.
이와 함께 최근 5년 이내에 에듀케이션 4.0과 KAIST MOOC(온라인 공개강좌)에 참여하고 교수법 혁신 및 교육 기부를 통한 사회공헌 등으로 KAIST의 교육수준 향상에 기여한 교원에게 주는 ‘이수영 교수학습혁신상’ 대상에는 문일철 교수(산업및시스템공학과)가 선정되었으며 박성홍 교수(바이오및뇌공학과)와 이재우 교수(생명화학공학과)가 각각 우수상을 수상한다.
(좌) 링크제니시스 베스트 티처 어워드(LINKGENESIS Best Teacher Award) 대상 수상자 이태억 교수
(우) 이수영 교수학습혁신상 대상 수상자 문일철 교수
대상 수상자 2명에게는 각각 1천만 원, 우수상 수상자 4명에게는 각각 5백만 원의 상금이 수여된다.
이날 행사에서는 이들 수상자 6인의 교육 혁신 사례와 함께 미래 대학의 성공적인 모델로 최근 급부상 중인 미네르바 스쿨의 켄 로스(Kenn Ross) 아시아 총괄 디렉터를 특별연사로 초청해 글로벌 교육 혁신 사례를 생생하게 듣는 자리도 마련돼 있다.
신성철 총장은 “교육 혁신을 통해 4차 산업혁명을 선도할 창의(Creativity), 협업(Collaboration), 융합(Convergence), 배려(Caring)의 ‘4C’인재를 양성해 세계 과학기술 발전에 선도적 역할을 담당하고, 국가와 인류 번영에 기여할 수 있길 기대한다”고 강조하고 수상자들을 격려했다.
2019.05.09
조회수 10026
-
4차산업혁명과 AI 대한민국 포럼 개최
판교미래포럼(회장 곽덕훈)과 지능정보산업협회(회장 허일규)가 오는 20일 판교테크노밸리에 있는 경기창조경제혁신센터 국제회의장에서‘4차산업혁명과 AI 대한민국’을 주제로 매머드급 포럼을 개최한다.
이 행사에는 김병관 의원(더불어민주당)·이찬열 의원(바른미래당)·김학도 중기벤처부 차관 등 정·관계인사와 산학연 관계자 등 800여 명이 참석해 국내 AI 관련기술의 R&D 현황을 살펴보는 한편 신산업 육성을 위한 국가산업정책 방향에 대한 심도 있는 논의를 통한 사회적 공감대 조성과 함께 관련기업 간 최신정보 공유를 목적으로 마련됐다.
주최 측 관계자는 이번 포럼이 “AI 기술이 대한민국 4차산업혁명을 주도하고 산업생태계를 재편할 수 있도록 국가적 지원체계의 확립과 산학연을 포함한 정·관계 간 상호 밀접한 협력관계를 구축하는 계기가 될 것으로 기대한다”고 밝혔다
올해 처음 열리는 ‘4차산업혁명과 AI 대한민국’ 포럼은 판교미래포럼과 지능정보산업협회가 공동 주최하고 KAIST 산학협력단·경기도경제과학진흥원·KAIST 기계지능및로봇공학다기관지원연구단이 주관한다.
포럼이 열리는 20일 오전 9시부터 시작되는 1부 행사에서는 ▲발달학습(Development Learning) 및 정서지능/(황성주·조성호 교수) ▲평생학습(Lifelong Learning) 및 최적화 알고리즘/(김준모·윤세영 교수) ▲신개념 강화학습(Reinforcement Learning)/(이상완·정송 교수) ▲지능 대화 에이전트 및 딥러닝 시각기술(이수영·권인소 교수) 등 4개 세션을 통해 KAIST 교수진의 연구내용 발표와 함께 IoT & 로봇통합시스템 및 학습알고리즘 등 총 20여 개에 달하는 첨단 AI 관련기술이 포스터 세션을 통해 각각 소개된다.
이와 함께 KAIST AI 기술이전 상담 및 포스닥(Post-Doc·박사후 과정) 인력지원 상담도 1부 행사시간에 동시 진행된다.
오후 2시부터 진행되는 2부 행사에서는 신성철 총장이 ‘4차산업혁명과 대한민국 성공방정식’을 주제로 기조강연을 하고 또 4차산업혁명과 인공지능분야 최고 전문가로 손꼽히는 김태유 서울대 교수와 김종환 KAIST 공과대학장이 각각 ‘4차산업혁명과 패권의 비밀’, ‘4차산업혁명과 인공지능’을 주제로 발표한다.
패널토론과 청중 Q&A 시간에는 고경철 KAIST 연구교수를 좌장으로 문전일 로봇산업진흥원장·김지원 과기정통부 AI정책팀장·명현 KAIST 교수·송세경 한국SW·ICT총연합회 산업혁신위원장·강용성 와이즈넛 대표·고영회 前 대한변리사회 회장·이경전 경희대 교수·김혜영 시니어벤처협회 창업연구소장 등 전문가들이 패널로 나서‘AI 융합혁신을 위한 4차산업혁명 국가정책 수립방안’을 주제로 열띤 토론을 전개할 예정이다.
특히 이날 포럼에는 특별행사로 KAIST가 그동안 연구해 온 AI 기술성과는 물론 지능정보산업협회 회원사를 포함해 ㈜ATEC, ㈜와이즈넛 등이 참여하는‘AI기술/제품 전시회’도 함께 열려 많은 참가자들의 관심을 끌 것으로 예상된다.
한편, 곽덕훈 판교미래포럼 회장은 개회사를 통해 “우리나라 4차산업혁명의 성공시대를 열기위해서는 KAIST와 판교밸리에 입주한 기업들이 상호 밀접한 연계를 통해 핵심적이고도 주도적으로 역할을 수행해야 한다“고 강조할 방침이다.
‘4차산업혁명과 AI 대한민국’ 포럼에 참석을 원하거나 부스 참여를 통해 AI 관련기술 또는 제품전시를 원하는 기업은 15일까지 지능정보산업협회 홈페이지( http://www.k-ai.or.kr/)를 통해 신청, 접수하면 된다. 사전등록을 하는 참가자들에 한해 무료이며 현장 등록은 2만원이다.
이밖에 1부 행사의 기술발표회는 042-350-8877, KAIST AI 기술이전 상담은 031-786-1085로 문의하면 된다.
2019.02.07
조회수 8939
-
이상완 교수, 신경과학-인공지능 융합으로 공학적 난제 해결
〈 (왼쪽부터) 안수진 박사과정, 이지항 박사, 이상완 교수 〉
우리 대학 바이오및뇌공학과 이상완 교수 연구팀이 영국 케임브리지 대학, 구글 딥마인드와의 공동 연구를 통해 차세대 뇌 기반 인공지능 시스템 설계의 방향을 제시했다.
이번 연구는 인간의 두뇌가 기존의 인공지능 알고리즘이 해결하지 못하는 부분을 해결할 수 있다는 사실에 기반한 신경과학-인공지능 융합 연구이다.
성능, 효율, 속도의 균형적 설계와 같은 다양한 공학적 난제를 해결할 수 있는 신경과학 기반 강화학습 이론을 제안한 것으로 새로운 인공지능 알고리즘 설계에 긍정적인 영향을 줄 것으로 기대된다.
이상완 교수와 함께 이지항 박사, 안수진 박사과정이 주도한 이번 연구는 국제 학술지 사이언스의 자매지 ‘사이언스 로보틱스(Science Robotics)’ 1월 16일 자 온라인판에 포커스 형식으로 게재됐다.
최적제어 이론에서 출발한 강화학습은 기계 학습의 한 영역으로 지난 20여 년 동안 꾸준히 연구된 분야이다. 특히 지난 5년 동안은 딥러닝 기술을 발전과 맞물려 급격한 성장을 이뤘다.
딥러닝 기반 강화학습 알고리즘은 최근 알파고와 같은 전략 탐색 문제, 로봇 제어, 응급실 비상 대응 시스템과 같은 의료 진단 등 다양한 분야에 적용되고 있다. 그러나 주어진 문제에 맞게 시스템을 설계해야 하는 점, 불확실성이 높은 환경에서는 성능이 보장되지 않는 점 등이 근본적인 해결책으로 남아있다.
강화학습은 의사 결정 및 계산신경과학 분야에서도 지난 20년간 꾸준히 연구되고 있다. 이상완 교수는 2014년 인간의 전두엽-기저핵 뇌 회로에서 이종 강화학습을 제어한다는 신경과학적 증거를 학계에 발표한 바 있다. 2015년에는 같은 뇌 회로에서 고속 추론 과정을 제어한다는 연구를 발표했다.
연구팀은 이번 연구에서 강화학습 등의 개별 인공지능 알고리즘이 해결하지 못하는 공학적 문제를 인간의 두뇌가 이미 해결하고 있다는 사실에 기반한 ‘전두엽 메타 제어’ 이론을 제안했다.
중뇌 도파민-복외측전전두피질 네트워크에서 외부 환경에 대한 학습의 신뢰도를 스스로 평가할 수 있는 보상 예측 신호나 상태 예측 신호와 같은 정보를 처리하며, 인간의 두뇌는 이 정보들을 경쟁적-협력적으로 통합하는 프로세스를 통해 외부 환경에 가장 적합한 학습 및 추론 전략을 찾는다는 것이 이론의 핵심이다.
이러한 원리를 단일 인공지능 알고리즘이나 로봇설계에 적용하면 외부 상황변화에 강인하게 성능, 효율, 속도 세 조건(performance-efficiency-speed tradeoff) 사이의 균형점을 유지하는 최적의 제어 시스템을 설계할 수 있다. 더 나아가 다수의 인공지능 개체가 협력하는 상황에서는 서로의 전략을 이용함으로 협력-경쟁 사이의 균형점을 유지할 수 있다.
1 저자인 이지항 박사는 “현대 인공지능의 우수한 성능은 사람의 행동 수준 관찰뿐 아니라 두뇌의 저수준 신경 시스템을 알고리즘으로 구현해 적극적으로 발전시킨 결과라고 보고 있다”라며 “이번 연구는 계산신경과학에 기반한 결과로 현대 딥러닝과 강화학습에서 겪는 성능, 효율, 속도 사이의 난제를 해결하는 실마리가 될 수 있고, 새로운 인공지능 알고리즘 설계에 많은 영감을 줄 것이다”라고 말했다.
이상완 교수는 “연구를 하다 보면 우리의 두뇌는 공학적 난제를 의외로 쉽게 해결하고 있음을 알 수 있다. 이 원리를 인공지능 알고리즘 설계에 적용하는 뇌 기반 인공지능 연구는 구글 딥마인드, MIT, 캘리포니아 공과대학, UCL 등 해외 유수 기관에서도 관심을 두는 신경과학-인공지능 융합 연구 분야이다”라며 “장기적으로는 차세대 인공지능 핵심 연구 분야 중의 하나로 자리를 잡을 것으로 기대한다”라고 말했다.
이번 연구는 과학기술정보통신부 및 정보통신기술진흥센터 연구개발 사업, 삼성전자 미래기술육성센터의 지원을 받아 수행됐다.
□ 그림 설명
그림1. 외부 환경에 따라 성능-효율-속도 문제 균형점을 찾는 뇌기반 강화학습 이론 (좌), 이를 최적 제어하는 ‘전두엽 메타 제어’(중) 및 로보틱스 분야 문제 해결 적용 사례 (우)
2019.01.24
조회수 8617
-
이의진 교수, 스마트폰으로 문서 촬영 시 발생하는 회전 오류 문제 해결
〈 이의진 교수(좌)와 오정민 박사과정(우) 〉
우리 대학 산업및시스템공학과 이의진 교수 연구팀이 스마트폰 카메라로 문서를 촬영할 때 자동으로 발생하는 불규칙적인 회전 오류 현상의 원인을 밝히고 해결책을 개발했다.
연구팀은 스마트폰의 방위 추적 알고리즘의 한계가 회전 오류의 원인임을 규명했다.
이번 연구 결과는 인간-컴퓨터 상호작용 학회의 국제 학술지인 ‘인터내셔널 저널 오브 휴먼 컴퓨터 스터디(International Journal of Human-Computer Studies)’ 4월 4일자 온라인 판에 게재됐고 8월호 저널에 게재될 예정이다.
스마트폰을 통해 책자, 문서 등을 촬영해 업무에 활용하는 것은 자연스러운 일상이 됐다. 하지만 촬영한 문서가 자동으로 90도 회전하는 현상으로 인해 불편을 겪는 사람들이 많다.
특히 여러 장의 사진을 찍었을 때 각기 다른 방향으로 회전돼 일일이 스마트폰을 돌리거나 파일을 편집해야 하는 현상이 발생한다.
스마트폰으로 문서를 촬영할 때는 대부분 스마트폰과 책상 위 문서가 평행 상태이다.
이 때 스마트폰을 회전시키면 스마트폰의 방위 추적 알고리즘이 작동하지 않는다. 방위 추적 알고리즘은 기본적으로 사용자가 스마트폰을 세워서 사용한다는 가정 하에 한 방향으로 가해지는 중력가속도를 측정해 현재 방위를 추정하는 방식으로 설계됐기 때문이다.
연구팀은 실험을 통해 오류 발생 수치를 측정했다. 실험 결과 문서를 가로로 촬영 시 방위 추적 오류가 93%의 높은 확률로 발생함을 확인했다.
일반 사용자는 오류의 원인을 파악하기 어렵다. 대부분의 카메라 앱은 셔터 버튼에 있는 카메라 모양의 아이콘 방향을 통해 실시간 방위를 표시하고 있지만 이러한 기능에 대해서도 사용자들은 인지하지 못한 것으로 파악됐다.
연구팀은 스마트폰의 모션센서 데이터를 활용해 문서 촬영 중에 방위를 정확하게 추적해 문제를 해결했다.
모션센서 데이터의 핵심 기술은 두 가지로 구분할 수 있다. 일반적으로 스마트폰으로 문서를 촬영할 때는 스마트폰이 지면과 평행을 이루기 때문에 스마트폰에 장착된 중력 가속도 센서를 관측해 이러한 문서 촬영 의도를 쉽게 알 수 있다.
두 번째로 문서 촬영 중에 발생하는 스마트폰 회전은 회전 각속도를 측정하는 센서를 활용해 추적할 수 있다. 카메라 앱 실행 후에 문서 촬영을 위해 스마트폰을 회전시키기 때문에 이를 측정해 회전각이 일정 임계치를 넘으면 방위를 변경하는 것으로 파악할 수 있고 이를 통해 방향을 알 수 있는 것이다.
또한 연구팀은 문서 촬영 시 촬영자 쪽으로 스마트폰이 미세하게 기울어지는 마이크로 틸트(micro-tilt) 현상을 발견했다.
이 현상으로 인해 스마트폰으로 가해지는 중력가속도가 스마트폰 측면으로 분산된다. 눈에는 잘 보이지 않을 정도로 작은 기울기지만 모션센서 데이터를 활용해 마이크로 틸트 행동 패턴의 기계학습 알고리즘을 훈련시킬 수 있다. 이를 통해 정확한 방위 추적이 가능하다.
연구 팀의 실험 결과에 따르면 모션센서 데이터를 활용한 방위 추적 방식의 정확도는 93%로 매우 높아 안드로이드 및 iOS등 상용 스마트폰에도 적용 가능하다.
이 기술들은 기존 방위 추적 알고리즘의 사각지대였던 수평 촬영 상황에서 작동하기 때문에 기존 방위 추적 알고리즘과 겹치는 부분 없이 상호 보완적으로 작동할 수 있다.
이 교수는 “스마트폰을 활용한 문서 촬영은 필수가 됐지만 회전 오류의 원인 규명과 해결책이 어려워 불편함이 많았다”며 “모션센서 데이터를 통해 촬영의 의도를 파악하고 자동으로 오류를 바로잡는 기술은 사용자의 불편을 해결하고 문서 촬영에 특화된 다양한 응용서비스 개발의 기초가 될 것이다”고 말했다.
미래창조과학부의 지원을 통해 수행된 이번 기술 중 국내 특허 2건이 등록이 완료됐고 미국 특허가 3월 1일에 수락됐다.
□ 그림 설명
그림1. 방위 오류 발생으로 인해 생기는 불편함
그림2. 평면촬영시 발생하는 방위 오류 상태
그림3. 자이로스코프를 활용한 스마트폰 회전 추적 모식도
그림4. 마이크로틸트현상
2017.06.27
조회수 10787
-
한동수 교수, 크라우드소싱 기반 실내 위치인식 시스템 개발
〈 한 동 수 교수 〉
우리 대학 전산학부 한동수 교수 연구팀(지능형 서비스통합 연구실)이 실내 공간에서 획득한 와이파이 신호의 수집 위치정보를 자동으로 파악할 수 있는 기술을 개발했다.
이 기술은 글로벌 실내 위치인식 시스템 구축에 필요한 핵심 기술로 다수의 스마트폰에서 수집된 무선랜 핑거프린트의 수집 위치를 자동으로 라벨링하는 인공지능 기법이다. 비용을 절감하면서 높은 정확도를 가질 수 있고 무선랜 핑거프린트 수집이 가능한 건물이라면 어느 곳에도 적용 가능하다.
여러 글로벌 기업들이 실내 GPS를 실현하기 위해 전 세계 주요도시에서 수만 건의 실내 지도를 수집했다. 실내 지도와 함께 신호 지도 수집도 시도했지만 높은 정확도를 갖지 못했고 그 결과 실내에서의 위치 인식 서비스 질이 떨어진다.
연구팀은 문제 해결을 위해 실내를 이동 공간과 체류 공간으로 구분하고 각각의 공간에 최적화된 수집 위치 라벨링을 자동화하는 기술을 개발했다.
연구팀이 개발한 기술은 복도, 로비, 계단과 같은 이동 공간에서도 수집된 신호의 위치정보를 별도의 외부 정도 없이도 자동으로 라벨링하는 새로운 자율학습(Unsupervised Learning) 인공지능 기술이다.
이 기술을 토대로 기초실험연구동(N5)과 김병호-김삼열IT융합빌딩(N1)에서 실험을 실시했고, 충분한 양의 학습 데이터가 주어진다는 가정 하에 오차범위 3~4미터 수준의 정확도를 보였다.
이는 수작업을 통해 수집 위치를 라벨링한 결과와 비슷한 정확도로 연구팀이 함께 개발한 지자기 신호, 3축 가속기, 자이로스코프 기반의 딥러닝을 활용한 새로운 센서 퓨전 기법을 통하면 정확도가 더욱 상승하는 결과를 보였다.
그 동안 스마트폰을 통해 수집된 핑거프린트는 활용되지 못하고 버려졌지만 개발된 기술을 통해 무선랜 핑거프린트 빅데이터 영역이 새롭게 열릴 것으로 기대된다.
개발된 GPS 구축 기술은 글로벌 기업이나 국내 위치정보 서비스 기업 등이 전국 범위에서 위치정보 서비스를 제공할 때 도입해 효과적으로 사용할 수 있을 것으로 예상된다.
GPS 신호가 도달하지 않는 실내 환경에서 위치인식 정확도가 높아짐에 따라 포켓몬고 등의 O2O(online to offline) 위치기반 게임도 실내에서 실행 가능할 것으로 기대된다.
또한 다양한 위치기반 SNS, 사물인터넷 등 서비스가 활성화되고 위급한 상황에서 112나 119에 구조요청을 할 시 정확한 위치 파악이 가능할 것으로 보인다.
한 교수는 “개발된 글로벌 실내 위치인식 시스템 구축 기술을 KAIST 실내 위치인식 시스템인 카이로스(KAILOS)에 탑재해 서비스 할 예정이다”며 “전 세계 어느 건물에서든 정확도 높은 실내 위치인식 시스템을 손쉽게 구축할 수 있고 장래에 대부분 실내 공간에서도 위치인식 서비스가 제공 가능할 것이다”고 말했다.
카이로스는 2014년 KAIST에서 출시한 개방형 실내 위치인식 서비스 플랫폼이다. 자신이 원하는 건물의 실내지도를 카이로스에 등록하고 해당 건물의 핑거프린트를 수집해 실내 위치인식 시스템을 구축하도록 지원 중이다.
□ 그림 설명
그림1. 핑거프린트를 수집하여 신호지도를 구축한 뒤, 구축된 신호지도를 기반으로 위치를 추정하는 과정
그림2. KAILOS가 여러 가지 신호와 센서를 복합적으로 사용하였을 때 예상되는 정확도
2017.04.12
조회수 12632