848 정보과학회논문지 : 소프트웨어 및 응용 제 39 권 제 11 호(2012.11) 3차원 객체인식을 위한 보완적 특징점 기반 기술자 (Complementary Feature-point-based Descriptors for 3D Object Recognition) 장영균 김 주 환 문 승 건 (Youngkyoon Jang) (Ju-Whan Kim) (Seung geon Moon) 남 택 진 권 동 수 우 운 택 (Tek-Jin Nam) (Dong soo Kwon) (Woontack Woo) 요 약 본 논문에서는 기존의 특징점 기반 객체 인식 방법의 확장으로 보완적 특징점 기반의 컬러 정 보를 포함하는 기술자를 활용하는 객체 인식 방법을 제안한다. 제안하는 방법은 무늬가 적은 객체에서도 에지의 위치를 샘플링함으로써 보완적 특징점을 생성해 낸다. 그리고 검출된 보완적 특징점으로부터 얻어 지는 그레이 값 변화도방향 정보와 컬러 정보를 가지고 있는 기술자를 생성한다. 그리고 생성된 기술자를 객체 단위로 묶어 낼 수 있도록 하는 코드북(Codebook)을 학습함으로써 각 객체를 구분해 낼 수 있는 강 건한 히스토그램를 생성한다. 생성된 코드북을 활용함으로써 제안하는 방법은 객체의 크기 및 환경(조명, 스케일) 변화, 3차원 회전의 경우에도 기존의 방법보다 강건하게 인식한다. 실험 결과 제안하는 방법은 73.66%로써 기존의 방법에 비해 약 10% 인식률 향상을 보이는 것을 확인하였다. 특히 조잡한 배경에 대 해서는 18%의 인식성능 향상을 확인하였다. 제안하는 방법은 도전적인 환경에서 강건한 인식성능 보임으 로써 실세계 증강현실 응용에서 정보 제시를 위해 가장 먼저 이루어지는 핵심 기술로써 활용될 수 있다. 키워드 : 객체 인식, 특징 기술자, 코드북 학습, 보완적 특징점 Abstract This paper represents a novel object recognition method utilizing complementary feature-point-based descriptor containing color information, which is an extension of the common feature-point-based object recognition. The proposed method generates complementary feature points even in the case of less textured object by sampling the positions along edges of the object. Then, based on the extracted feature points, it generates feature descriptors, which contain gradient orientation and color information. Then the method learns a codebook so that the codebook integrates the extracted feature points into a histogram. As experiments, the proposed method shows 73.66% of accuracy. Especially, it is much robust in terms of the cluttering case. The method could be used as a core technology of the initial step of the information retrieval. Key words :Object recognition, feature descriptor, codebook learning, complementary feature point 이 논문은 2012년 교육과학기술부의 재원으로 한국연구재단의 지원을 받아 <실감 교류 인체감응 솔루션> 글로벌프론티어사업으로 수행된 연구임 이 논문은 2012 한국컴퓨터종합학술대회에서 컬러 정보를 포함하는 보완적 특 징점 기반 기술자를 활용한 객체인식 의 제목으로 발표된 논문을 확장한 것임 비 회 원 : KAIST 문화기술대학원 y.jang@kaist.ac.kr (Corresponding author임) moonsg@robot.kaist.ac.kr 비 회 원 : KAIST 산업디자인학과 juwhan.k@gmail.com 비 회 원 : KAIST 산업디자인학과 교수 tjnam@kaist.ac.kr 비 회 원 : KAIST 기계공학과 교수 kwonds@kaist.ac.kr 종신회원 : KAIST 문화기술대학원 교수 wwoo@kaist.ac.kr 논문접수 : 2012년 7월 10일 심사완료 : 2012년 8월 20일 CopyrightC2012 한국정보과학회ː개인 목적이나 교육 목적인 경우, 이 저작 물의 전체 또는 일부에 대한 복사본 혹은 디지털 사본의 제작을 허가합니다. 이 때, 사본은 상업적 수단으로 사용할 수 없으며 첫 페이지에 본 문구와 출처 를 반드시 명시해야 합니다. 이 외의 목적으로 복제, 배포, 출판, 전송 등 모든 유형의 사용행위를 하는 경우에 대하여는 사전에 허가를 얻고 비용을 지불해야 합니다. 정보과학회논문지: 소프트웨어 및 응용 제39권 제11호(2012.11)
3차원 객체인식을 위한 보완적 특징점 기반 기술자 849 1. 서 론 최근 증강현실 기술의 발전에 따라 이를 활용하고 대 중에게 상용화 하려는 노력이 이어지고 있다. 이와 같은 현상은 최근 구글 글래스 프로젝트 등의 시나리오 동영 상을 통해서 확인을 할 수 있다. 이때 주요한 기술은 사 용자가 현재 하고자 하는 것이 무엇인지를 알아내는 의 도 해석(intention understanding)에 있다. 이를 인지하 기 위해 스마트폰은 GPS, 방위 센서 등을 장착함으로써 사용자가 현재 위치에서 바라보는 방향을 알아내고 이 로부터 사용자가 하고자 하는 행동이나 관심대상을 확 인하고 정보를 제공하였다[1]. 최근에는 스마트 폰에 장착된 카메라의 발달과 네트 워크 통신 기술의 발달에 따라 주요한 연산을 서버에서 수행할 수 있게 되었고 이에 따라 상대적으로 연산이 많이 요구 되는 객체 인식 기술 역시 사용자의 의도를 파악하는데 주요한 기술로 각광을 받고 있는 추세이다. 이와 같이 객체 인식 기술을 이용하여 사용자의 의도를 알아내고 그에 해당하는 정보를 제공하려는 증강현실 응용의 수요가 늘어나고 있지만 현재의 객체 인식 기술 로는 다양한 환경 변화 및 객체의 다양한 시점 변화에 강건한 인식을 지원하지 못하고 있다. 지난 몇 년간 크 기 및 회전에 강건한 특징 기술자(descriptor)[1,2]가 개 발된 이후부터 객체 인식에는 큰 발전이 있어왔지만, 특 징점을 기반으로 하는 기술자라는 특성상 무늬가 부족 한 객체인 경우나 3차원 회전 및 환경변화에는 강건하 지 못한 문제가 있었다[3-6]. 따라서 본 논문에서는 그와 같은 문제를 해결하기 위 해서 무늬가 부족한 객체의 경우에도 에지 위치를 샘플 링 해냄으로써 특징점을 기존 특징점 검출방법에 상호 보완적으로 생성하고 검출된 특징점을 기반으로 그레이 값 변화도방향 정보 및 컬러 정보를 포함하는 기술자를 생성하는 방법을 제안한다. 제안하는 방법은 RF(Random Forest)를 기반으로 하는 코드북을 학습 / 활용함으로써 객체 영상 한 장을 하나의 BoWs(Bag-of-Words)로 생 성해내고 이를 통해 인식을 함으로써 3차원 회전 및 환 경 변화에 강건한 특징을 보인다. 제2장에서는 제안하는 방법의 알고리즘의 세부 내용 에 대해서 설명을 하고 3장에서는 실험 결과에 대해서 분석한다. 그리고 4장에서는 결론 및 향후 연구 방향에 대해 기술한다. 2. 제안하는 알고리즘 제안하는 알고리즘은 아래의 흐름도와 같다. 그림 1에 서 보이는 바와 같이 제안하는 알고리즘은 카메라를 통 해 들어온 영상들로부터 특징이 되는 점들의 좌표를 추 그림 1 제안하는 알고리즘의 흐름도 출하는데 이때 무늬가 부족한 객체의 경우(예. 그림 3의 공구박스)에는 그림 2(a)의 회색점과 같이 에지의 위치 를 샘플링함으로써 보완적 특징점을 추출한다. 그리고 나면 검출된 특징점 좌표에 해당하는 위치에서 흑백 값 의 변화도방향에 기반한 특징 기술자를 생성하고 동시 에 같은 좌표에서 특정 크기의 패치 영역에 대해 RGB 각 스페이스에서의 히스토그램을 계산한다. 이 생성된 변화도 방향 기반 기술자와 일반화된 RGB 각 히스토그램을 통합함으로써 특징 기술자를 생성해 내고 이 생성된 기술자들은 이후 감독학습(Supervised Learning)을 위해 라벨링(Labeling)된다. 이 라벨링된 기술자들은 이후 코드북 학습에 입력으로 활용되며 학 습된 코드북을 통해 만들어진 레퍼런스 BoWs(Bagof-Words)는 이후 테스트 시 입력된 영상의 특징점들 을 통해 형성된 BoWs와 매칭을 통해 인식을 수행한다. 2.1 보완적 특징점 추출 기존의 특징점 추출 알고리즘은 그림 3의 검정색 신 발과 공구박스들과 같이 무늬가 부족한 객체의 경우에 는 그림 2(a)의 흰색점들과 같이 충분한 수의 특징점을 검출하지 못한다. 이와 같은 문제 때문에 무늬가 부족한 객체의 경우에는 특징점 기반 알고리즘 대신에 템플릿 (Template) 기반의 객체 검출[7] 등의 접근 방법을 사 용하였다. 하지만 제안하는 알고리즘은 이미 무늬가 충 분한 객체에 대해 이미 잘 동작하는 특징점 기반의 방 법을 무늬가 적은 객체에 대해서도 적용하기 위해 보완 적 특징점 검출을 수행한다. 먼저 제안하는 알고리즘은 FAST[8] 방법을 사용함으 로써 그림 2(a)의 흰색점들과 같이 특징점을 검출한다. 이때 얻어지는 특징점의 개수가 미리 정의된 임계값보 다 적은 경우에 보완적 특징점 검출을 수행함으로써 객 체의 특징 구분력을 높이기 위해 특징점을 보완한다. 이 때 보완적 특징점은 에지의 위치를 샘플링 해냄으로써 얻어지는데, 인식하고자 하는 관심객체 위에서만 보완적 특징점을 생성해 내기 위해서 먼저 그림 2(c)와 같이 세 그먼테이션(segmentation)을 수행한다. 이때 제안하는 알고리즘은 관심객체가 영상의 중앙에 위치한다는 가정
850 정보과학회논문지 : 소프트웨어 및 응용 제 39 권 제 11 호(2012.11) 2.2 변화도 방향과 컬러 기반 기술자 생성 위의 보완적 특징점 검출을 통해 무늬가 부족한 객체 에 대해서도 충분한 수의 특징점을 검출하였다고 하더 라도 기존의 변화도 방향에 기반하는 기술자는 그림 3 의 두 공구 박스와 같이 특징점 위치에서 변화도 방향 까지도 비슷한 값을 내는 두 객체에 대해서는 구분이 어려운 문제가 있다. 따라서 기존에 무늬가 많은 객체에 대해서 잘 동작하는 변화도 방향 기반 기술자에 컬러 정보를 추가함으로써 제안하는 알고리즘은 비슷한 모양 의 비슷한 그레이 변화도 방향 값을 보이는 두 객체를 구분하는데 보다 강건한 기술자를 생성한다. 이때 변화 도 방향 기반의 기술자는 기존의 방법 중 하나인 SURF 기술자[2]를 활용하였다. 그림 2 보완적 특징점 추출: (a) (흰색점) 검출된 특징점 이 변화도 방향 기반 기술자에 추가적으로 컬러 정보 (회색점) 에지의 위치 샘플링을 통해 보완된 특징 를 덧붙이기 위해서 제안하는 알고리즘은 검출된 특징 점, (b) (1) 배경에 둘러싸인 에지 경우 (2) 객체 점 위치에서 일정한 크기(본 논문에서는 10 10)의 패 위의 에지 경우, (c) 검출된 객체위의 에지 예, 치 영상을 얻어내고 그 패치 영상 안에서 R, G, B 각 (d) 검출된 보완적 특징점 실제 예시 스페이스에 해당하는 히스토그램을 생성한다. 이 때 각 R, G, B 스페이스마다 히스토그램의 bin의 개수는 실험 하에 영상 가장자리 부분의 1 픽셀(pixel) 영역에 해당 적으로 가장 좋은 성능을 나타내는 30개로 설정하였다. 하는 컬러값을 미리 검사함으로써 배경이 가지고 있는 이렇게 얻어진 한 특징점 패치에 대한 90개의 컬러 히 컬러 값 범위를 설정한다. 이후 영상 바깥쪽에서부터 안 스토그램 값은 SURF 기술자의 값 범위와 일관되게 일 쪽 방향으로 각 픽셀 컬러 값이 설정된 배경 색 범위에 반화되어 통합하였다. 이렇게 해서 변화도 방향과 컬러 들어오는지 아닌지 판별함에 따라 그림 2(c)와 같이 배 기반의 154 차원 값을 가지는 기술자를 생성하였다. 이 경과 객체 영역을 분리해 낸다. 생성된 기술자들은 각 객체에 상응하는 기호로 라벨링 그리고 영상 전체에서 검출된 에지 중에 그림 2(b-1) 과 같이 에지 주위 8 방향이 모두 배경 영역으로 둘러 하여 이후 생성될 코드북에 전달된다. 2.3 코드북 학습/생성 그리고 히스토그램 매칭 싸인 쌓인 경우 제거를 하고 그림 2(b-2)와 같이 절반 각 객체에 상응하는 기호로 라벨링된 디스크립터들은 은 객체 영역이거나 전체가 객체 영역으로 둘러싸인 에 그림 4에서 보이는 바와 같이 Random Forest(무작위 지의 경우는 남겨 놓음으로써 객체 영역 위의 에지를 숲) 코드북(Codebook) 학습에 입력으로 전달이 되고 이 얻어낸다. 그리고 얻어진 에지의 위치를 랜덤 위치에 대 전달된 기술자들은 각 임의의 트리의 분기 노드마다 해 해서 샘플링해 냄으로써 제안하는 알고리즘은 기존의 당 노드에서 기술자들을 객체 단위로 가장 잘 분기할 방법이 검출하지 못하는 객체에 대해서도 보완적 특징 수 있도록 하는 함수(function)를 정의해 낸다. 이렇게 점을 그림 2(d)와 같이 검출하였다. 학습 데이터셋(Dataset)을 가장 잘 분기 하도록 학습된 그림 3 실험을 위해 사용된 영상: 첫 번째 줄 학습 시 사용된 영상, 두 번째부터 네번째 줄까지 매칭 시 사용된 영상
3차원 객체인식을 위한 보완적 특징점 기반 기술자 851 그림 4 RF(Random Forest) 기반 BoWs(Bag-of-Words) 생성 개념도: (a) 한 장의 영상에서 검출된 특징 기술자 들이 학습된 코드북을 통해 BoWs로써의 히스토그램으로 만들어지는 과정이 도식화된 예시, (b) 각 객체별 로 만들어진 히스토그램 예시 코드북은 이후 테스트 시에 취득된 한 장의 프레임 영 상에서 얻어진 기술자들을 코드북을 통해 하나의 BoW 로 만들어낼 수 있다. 그림 4(a)에서 보는바와 같이 학습된 코드북은 각 라 벨링 된 기호에 맞게 기술자들을 각기 다른 잎새 노드 (leaf node)에 도달하도록 학습이 되기 때문에 한 영상 에서 얻어진 다수의 특징 기술자들을 모두 코드북에 통 과시켜서 얻어진 BoWs 히스토그램은 그림 4(b)에서 보 는 바와 같이 각 영상 마다 구분력이 있도록 형성된다. 이와 같은 과정을 통해 얻어진 영상 한 장을 나타내는 BoW로써의 히스토그램은 학습 시 얻어진 레퍼런스 히 스토그램과 매칭을 통해서 가장 유사도를 가지는 객체 를 인식된 객체로 인식한다. 3. 실험 결과 본 논문에서는 3차원 객체인식에서 일어날 수 있는 현실적인 챌린지(challenge)인 조잡한 배경, 크기 및 조 명 변화 환경에서 (무늬가 부족한 객체 포함) 강건한 인 식을 지원하기 위한 특징점 보완 및 추출된 특징점 기 반 기술자 보완 알고리즘에 대해 제안한다. 제안하는 알 고리즘의 우수성을 측정을 위하여 본 논문에서는 위에 언급한 챌린지가 잘 드러나는 자체 데이터셋을 구성하 고 인식률을 측정하였다. 객체는 그림 3에서 보이는 바 와 같이 총 10개의 객체로서 완전히 3차원 객체이다. 이 때 학습 영상은 객체를 중심으로 주위에 노이즈를 최대 한 배제한 환경에서 자연스럽게 취득한 영상이고 매칭 영상은 3차원 회전, 배경의 조잡함, 크기 변화 그리고 조명의 변화 등의 환경적인 변화 상황을 고려하여 만들 어진 영상이다. 각 영상은 (640*480) 크기이고 영상의 픽셀은 24 비트의 컬러 값을 가진다. 또한 본 논문에서 는 3.4GHz의 프로세서, 8GB의 SDRAM을 장착한 데스 크톱 환경에서 실험을 진행하였다. 구축된 데이터셋은 챌린지한 환경에서 취득되었다는 것뿐 아니라 객체 각각에도 어려운 특성이 있다. 처음 표 1 제안하는 알고리즘의 객체에 따른 인식률(%): (기존)의 방법은 FAST 특징점 기반 SURF 기술자와 RF (Random Forest) 코드북의 조합, (제안)하는 방법은 FAST 특징점과 동시에 보완적 특징점 기반 SURF와 컬러 히스토그램을 포함하는 기술자와 RF 코드북의 조합 객체 조잡한 배경 크기 변화 조명 변화 객체평균인식률 기존 제안 기존 제안 기존 제안 기존 제안 로봇1 40.00 80.00 100.00 100.00 100.00 100.00 80.00 93.33 로봇2 100.00 100.00 40.00 80.00 0.00 0.00 46.66 60.00 박스1 100.00 100.00 100.00 100.00 100.00 100.00 100.00 100.00 박스2 100.00 100.00 80.00 80.00 100.00 100.00 93.33 93.33 신발1 100.00 100.00 60.00 60.00 0.00 0.00 53.33 53.33 신발2 100.00 100.00 20.00 20.00 0.00 0.00 40.00 40.00 미니어쳐1 80.00 80.00 100.00 100.00 60.00 60.00 80.00 80.00 미니어쳐2 40.00 100.00 30.00 60.00 20.00 30.00 30.00 63.33 공구박스1 20.00 60.00 60.00 40.00 100.00 100.00 60.00 66.66 공구박스2 60.00 100.00 40.00 60.00 100.00 100.00 66.66 86.66 전체인식률 74.00 92.00 63.00 70.00 58.00 59.00 64.99 73.66
852 정보과학회논문지 : 소프트웨어 및 응용 제 39 권 제 11 호(2012.11) 두 객체는 문구용 로봇으로써 작은 부품들에서 나오는 특징이 서로 비슷하기 때문에 인식에 어려운 특징을 보 인다. 그리고 신발의 경우 특징이 많이 잡히지 않는 단 일 색으로 이루어져있고 공구박스 같은 경우 역시 뚜렷 하게 특징지어질 만한 무늬가 없는 객체이다. 이와 같은 어려운 객체에서 제안하는 알고리즘을 테스트한 결과 표 1과 같이 73.66%의 인식률을 보이는 것을 확인하였 다. 특히 조잡한 배경에 대해서는 기존의 방법에 비해 18%의 인식률 향상 보이는데 이는 보완적 특징점 추출 을 통해서 무늬가 적은 객체에 대해서도 특징점을 생성 해 냄으로써 객체를 정의할 수 있는 기술자를 생성하였 기 때문이다. 제안하는 방법은 그레이 값 변화도방향 및 컬러 정보 를 통합함으로써 특징 기술자를 보완하고 코드북을 통 해 보완된 특징 기술자들을 하나의 BoWs로 통합한다. 이 방법은 특징 기술자 각각을 매칭하는 것이 아니라 각 특징 기술자들이 하나로 통합된 BoWs 히스토그램을 매칭하기 때문에 객체마다 일관된 BoWs를 생성할 수 있도록 코드북을 학습하고 구분력있는 BoWs를 생성한 다. 따라서 로봇, 박스, 미니어처와 같이 기존 특징점 검 출 알고리즘으로 추출된 특징점 뿐 아니라 보완적 특징 점 검출을 통해 추출된 특징점 기반 기술자들로 생성된 BoWs도 그림 4(b)와 같이 구분력을 가진다. 따라서 제 안하는 방법은 특징 각각을 구분력 있게 만들기 보다는 객체 각각의 특성을 반영하도록 기술자를 보완하였기 때문에 크기 및 조명 변화와 같은 도전적인 환경에 대 해서도 기존의 방법에 비해 강건한 인식 성능을 보이는 것을 확인할 수 있다. 마지막으로 제안하는 방법은 제시한 실험 환경에서 평균 15.97 ms(fast[8] 특징검출: 3.84 ms, 보완적 특 징검출 및 기술자생성: 7.01 ms, BoWs생성 및 매칭: 5.12 ms)의 속도로 인식을 수행하는 것을 확인하였다. 보통 일반 웹캠의 경우 30 FPS로 영상을 취득하기 때문에 제 안하는 알고리즘은 약 62 FPS(Frame per second)로 실 시간 처리가 가능하다는 것을 확인하였다. 결론적으로 본 논문에서 제안하는 보완적 특징점 기반의 그레이 값 변화도방향 및 컬러 정보를 통합하는 기술자가 인식률 을 향상시키는 결과를 확인할 수 있었고 실시간 처리를 지원하는 것을 확인할 수 있었다. 4. 결 론 본 논문에서는 특징점 검출이 실패하는 무늬가 적은 객체에서 특징점을 보완하기 위해 관심 객체에 배경을 세그먼테이션 함에 따라 구분해 내고 에지 위치를 샘플 링 함으로써 보완적 특징점을 검출 하였다. 그리고 검출 된 특징점 위치에서 그레이 값의 변화도 방향과 컬러 각 채널에서 나오는 히스토그램 값을 통합하는 기술자 를 제안하였다. 실험 결과 제안하는 방법은 텍스쳐가 부 족한 객체 및 특징이 비슷한 객체들의 경우에 특히 탁 월한 인식률 향상을 보였으며, 이와 같은 다양한 특징의 조합으로 기술자를 생성함으로써 인식률 향상을 가져올 수 있다는 기본 아이디어를 증명하였다. 향후에는 깊이 영상을 활용하여 제안하는 알고리즘을 보완하는 다양한 특징 기술자를 새롭게 정의하고 실험함으로써 실제에서 일어날 수 있는 다양한 환경 변화에 강건한 기술자를 생성하고 학습하는 방법에 대해 연구할 계획이다. 참 고 문 헌 [1] Y. Jang, W. Woo, D. Kim, and C. Shin, "Mobile Augmented Reality Technology Trends," Open Standards and Internet Association Standards & Technology Review (Special Issue for Mobile Internet), vol.38, no.1, pp.41-52, Mar. 2010. (in Korean) [2] H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, Speededup robust features (surf), Comput. Vis. Image Underst., 110:346-359, Jun. 2008. [3] D. G. Lowe. Distinctive image features from scaleinvariant keypoints, Int. J. Comput. Vision, 60:91-110, Nov. 2004. [4] M.-J. Hu, C.-H. Li, Y.-Y. Qu, and J.-X. Huang, Foreground objects recognition in video based on bag-of-words model, Chinese Conference on Pattern Recognition, pp.1-5, Nov. 2009. [5] G. F. Pineda, H. Koga, and T. Watanabe, Object discovery by clustering correlated visual word sets, In Proceedings of the 2010 20th International Conference on Pattern recognition, ICPR 10, pp.750-753, Washington, DC, USA, 2010, IEEE Computer Society. [6] T. Lee and et al., Video-based descriptors for object recognition, IVC11, 2011. [7] S. Hinterstoisser, V. Lepetit, S. Ilic, P. Fua and N. Navab, Dominant Orientation Templates for Real-Time Detection of Texture-Less Objects, CVPR 2010, 2010. [8] E. Rosten and T. Drummond, Machine learning for high-speed corner detection, ECCV 2006, pp.430-443, May 2006. 장 영 균 2007년 2월 상명대학교 소프트웨어학부 (학사). 2008년 8월 상명대학교 컴퓨터과 학과(석사 수료). 2010년 8월 광주과학기 술원 정보통신공학과(석사 수료). 2012년 1월 광주과학기술원 정보통신공학과(박 사 수료). 2012년 2월~현재 한국과학기 술원 문화기술대학원(박사과정). 관심분야는 증강/혼합 현실, 유비쿼터스 가상현실, 컴퓨터 비전, 패턴 인식, 생체 인식
3차원 객체인식을 위한 보완적 특징점 기반 기술자 853 김 주 환 2006년 2월 한국과학기술원 산업디자인 학과(학사). 2010년 2월 한국과학기술원 산업디자인학과(석사). 2012년 2월~현재 한국과학기술원 산업디자인학과(박사과정) 관심분야는 인터랙션 디자인, 프로토타이 핑 문 승 건 2011년 2월 한국과학기술원 전기 및 전 자공학과(학사). 2011년 2월~현재 한국 과학기술원 문화기술대학원(석사과정). 관 심분야는 Human-Robot Interaction, Robot Interface, Touch Interface, Tangible User Interface 우 운 택 1989년 2월 경북대학교 전자공학과(학사) 1991년 8월 포항공과대학교 전기전자공 학과(석사). 1998년 12월 Univ. of Southern California (USC) Electrical Engineering-Systems(박사). 1991년~1992년 삼성종합기술원 연구원. 1999년~2001년 ATR MIC Lab. 초빙 연구원. 2001년~2012년 광주과학기 술원 정보기전공학부 정보통신공학과 교수. 2005년~2012년 광주과학기술원 문화콘텐츠기술연구소장. 2012년~현재 한 국과학기술원 문화기술대학원 교수. 관심분야는 문화콘텐츠 기술, 3D 컴퓨터 비전, 증강/혼합현실, 인간-컴퓨터 상호작 용, 감정인식, 맥락 인식 컴퓨팅, 유비쿼터스 컴퓨팅 등 남 택 진 1990년 2월 한국과학기술원 산업디자인 학과(학사). 1993년 2월 한국과학기술원 산업디자인학과(석사). 1999년~2001년 University of Wales Institute Cardiff 조 교수. 2001년 2월 영국 Brunel University 디자인학과(박사). 2002년~현재 한 국과학기술원 산업디자인학과 교수. 현재 한국 디자인학회 및 세계 디자인 학회 사무 총장. 관심분야는 인터랙션 디자 인, 증강디자인, 제품 디자인 체계 등 권 동 수 1980년 2월 서울대학교 기계공학과(학사) 1982년 2월 한국과학기술원 기계공학과 (석사). 1982년~1985년 주식회사 광림 연구소 과장, 부장. 1991년 6월 Georgia Institute of Technology Robotics(박 사). 1991년~1995년 미국 Oak Ridge 국립연구소 로보틱스 및 공정 시스템부 텔레로보틱스과 선 임연구원. 1995년~현재 한국과학기술원 기계공학과 교수 1999년~현재 대한로봇축구협회(KRSA) 이사. 2004년~현 재 한국과학기술원 인간-로봇 상호작용 핵심연구센터 소장 2008년~현재 한국과학기술원 엔터테인먼트 공학연구소 겸 임교수. 2008년~현재 미래의료로봇연구단 단장. 2009년~현 재 대한의료로봇학회 국제협력이사. 2011년~현재 World Haptics Conference General Chair. 2012년~현재 Korea Robotic Society 회장. 관심분야는 Human-Robot Interaction, Telerobotics, Haptics, Medical Robotics, Entertainment Robot, Rehabilitation Robot 등