한국지능시스템학회 논문지 2011, Vol. 21, No. 3, pp. 296-301 DOI : 10.5391/JKIIS.2011.21.3.296 군집 로봇의 동시적 위치 추정 및 지도 작성 Simultaneous Localization and Mapping For Swarm Robot 문현수 * 신상근 ** 주영훈 1* Hyun Su Mun *, Sang Geun Shin ** and Young Hoon Joo 1* * 군산대학교 제어로봇공학과 ** 한국폴리텍 김제대학 요 본 논문에서는 군집 로봇의 동시적 위치 추정 및 지도 작성 시스템을 제안하였다. 로봇은 실험환경에서 주변 환경을 인식 하기 위해 초음파센서와 비젼 센서를 이용하였다. 실험환경을 3개의 영역으로 분할하였고, 로봇은 각 영역에서 초음파 센 서로 주변 환경에 대한 거리 정보를 측정하였고, SURF 알고리즘을 이용하여 비젼 센서로부터 입력받은 영상과 landmark 의 특징점을 정합하여 랜드마크를 인식하였다. 제안된 방법은 센서값들에 대한 오차에 민감하지 않고 실험환경에 비교적 정확한 지도를 작성함으로써 응용 가능성을 증명하였다. 키워드 : 이동로봇의 위치 인식, 비젼센서, 초음파센서, Particle filter, 표식, 초음파 센서 약 Abstract This paper deals with the simultaneous localization and mapping system using cooperative robot. For recognizing environment, swarm robot uses the ultrasonic sensors and vision sensor. U ltrasonic sensors measure the distance inf ormation, and vision sensor recognizes the predef ined landmark. we used SU RF with excellent quality and f ast matching in order to recognize landmark. D ue to measurement error of sensors, we fusion them using particle filter f or accurate localization and mapping. Finally, we show the f easibility of the proposed method through some experiments. Key Words : Cooperative robot, vision sensor, Speeded Up Robust Features, Particle f ilter, Localization and Mapping 1. 서 론 오늘날 산업기술의 초점은 첨단화, 융합화 되어가는 경향 이 있다. 특히 IT, BT, NT 기반 사업을 융합하는 분야 중 의 하나가 로봇 관련 산업이다. 로봇 산업의 초기에는 산업 용 로봇과 제조업용 로봇의 기술 개발에 집중하였다. 하지 만 인구의 고령화와 저 출산으로 인하여 인간의 복지와 인 간의 삶의 질을 향상시키기 위하여 로봇 산업은 서비스, 안 전, 경비 등의 방향으로 변하고 있고, 각종 서비스를 위한 지능형 로봇에 관심도가 증가하게 되어 지능형 로봇에 대한 연구가 시작되었다. 하지만 지능형 서비스 로봇은 특정의 서비스와 기능에 대해서만 초점을 맞추어 연구가 진행되고 있으며, 지능형 서비스 로봇은 크기가 너무 크고, 환경 인식 을 하기 위해서 다양한 센서가 필요하여 로봇의 단가가 비 싸지는 단점이 있다. 최근 이러한 단점을 보완할 수 있도록 서비스 로봇 응용분야의 확장하여 로봇이 서로 협업을 하고 소형화하여 서비스를 수행 할 수 있도록 하는 군집 로봇 시 접수일자 : 2011년 3월 11일 완료일자 : 2011년 5월 30일 1 책임저자 감사의 글 : 본 연구는 2008년 정부(교육과학기술부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임 (R01-2008-000-20844-0) 스템에 대한 관심도가 증가하고 있다. 군집 로봇 시스템은 로봇간의 협업을 이용하여 로봇의 효율적인 제어, 군집 로 봇의 포메이션 형성, 군집 로봇 간의 충돌 회피, 장애물 회 피, 로봇의 위치 추정 및 지도 작성 등에 관한 연구가 진행 되고 있다. 이 중 로봇이 주어진 임무를 수행하기 위해서는 현재 로봇의 위치를 정확히 알고 있어야하기 때문에 지능형 서비스 로봇에서 활발히 진행되었던 미지의 영역에서 위치 추정 및 지도 작성에 관한 연구 또한 군집 로봇 시스템에서 해결해야 될 연구 분야 중 하나이다. 기존의 연구들은 군집 로봇의 위치 추정 및 지도 작성을 수행하기 위해서 stipes[1]등은 레이져 센서를 기반으로 하 여 EKF(Extended Kalman Filter) 기반으로 2대의 이동 로 봇을 위치 추정 및 지도 작성을 하였고, Tong[2]등은 거리 측정 센서를 사용하여 실험 영역에 존재하는 다수의 장애물 의 위치를 2대의 로봇에 EKF를 적용하여 미지의 영역을 탐색하는 시뮬레이션을 하였다. 거리 측정 센서의 경우 복 잡한 환경일 경우에 오차가 커지고, 복도와 같은 단순한 환 경일 경우에는 위치 추정이 쉽지 않았다. 지능형 로봇에서 거리측정센서만을 사용하여 로봇의 위치를 추정하고 지도 작성을 할 경우 생기는 문제점을 보완하기 위하여 Zingaretti [3]등은 비젼 센서로부터 입력 받은 영상과 미리 설정한 landmark와의 특징점 정합 해주는 SI FT 알고리즘 [7]과 초음파 센서로 획득한 정보를 융합하여 로봇의 지도 작성 및 로봇의 위치 추정을 수행하여 단점을 보완하였다. 296
군집 로봇의 동시적 위치 추정 및 지도 작성 본 논문에서는 초음파 센서와 비젼 센서를 융합을 이용 하여 군집 로봇의 위치 추정 및 지도 작성을 수행한다. 실 험환경의 각 영역에서 로봇은 초기 위치를 설정하여 PSO 로 동정된 제어기를 기반으로 주행을 하였고[4-6], 로봇은 장착되어 있는 초음파 센서로 주변 환경에 대한 거리 정보 를 측정을 하고, 비젼 센서로는 입력된 영상과 landmark의 특징점 정합을 이용하여 인식한다. landmark를 인식하는데 우수한 성능을 지녀 많이 사용되는 SIFT는 연산량이 많다 는 단점을 지니고 있어, SI FT와 비교하여 비슷한 성능을 갖지만 속도면에서 빠른 SURF(Speeded Up Robust Features) [8] 알고리즘 이용한다. 각 영역에서 측정된 센서 값들은 로봇의 위치 추정에 많이 사용되는 파티클 필터 (Particle filter) [9~12]로 융합하는 시뮬레이션을 통해 각 영역에서 로봇의 위치를 추정하며 측정된 센서 값을 지도로 나타내어 지도를 작성함으로써 군집 로봇의 동시적 위치 추 정 및 지도 작성을 수행한다. 2. 제안한 시스템 본 논문에서는 실험환경에서 각 영역으로부터 센서값을 측정한 후 로봇이 각 영역에서 측정된 센서값들을 파티클 필터로 융합하는 시뮬레이션을 통하여 군집 로봇의 동시적 위치 추정 및 지도 작성 시스템을 구현하고자 한다. 제안하 는 시스템의 구성은 그림 1과 같다. 3. 로봇의 위치 추정 및 지도 작성 3.1 Landmark 인식을 위한 SURF 본 논문에서 사용하는 SURF(Speeded Up Robust Features)는 환경변화에 불변하는 특징점을 찾는 알고리즘 중 하나로 얻어진 그레이 영상으로부터 기하학적 관계에 기 반을 둔 특징을 찾아내고, 서술자를 구성하여 특징점을 정 합한다. 일반적으로 성능이 우수하다고 알려진 SIFT와 견 줄만한 성능을 보이면서도 속도를 크게 향상시킨 알고리즘 이다. SURF는 크기(Scale)와 회전(Rotation) 변화에 강건 한 특징 추출기이다. 3.1.1 특징점 검출 SURF는 근사화된 Hessian-Matrix를 적용하여 고속으 로 특징점을 검출한다. 이 때 적분영상을 적용하여 크기 공 간의 연산량을 효율적으로 감소시켰다. 여기서 적분 영상은 원점으로부터 각 픽셀의 위치까지의 영역의 모든 픽셀 값들 을 더한 영상이다. x,y 위치에서의 적분 영상값 는 식 (1)과 같다. (1) 식(1)의 는 원본 영상의 픽셀 값을 의미한다. 그 림 2는 적분영상을 이용하여 1영역의 적분 영상 값을 계산 하는 방법을 나타낸다. 적분영상은 한번 계산이 되면 사각 형 전체 영역의 적분영상을 쉽게 계산할 수 있으며, 계산영 역의 크기에 종속되지 않기 때문에 큰 필터 사이즈를 반복 해서 계산하는데 효과적이다. 그림 2. 적분영상을 이용한 1영역의 적분 값 계산 Fig. 2. Calculation of integral image of 1 area using integral image 그림 1. 군집 로봇의 동시적 위치 추정 및 지도 작성 시스템 구성도 Fig.1. System configuration f or simultaneous localization and mapping of cooperative robot 먼저, 로봇은 각 영역으로부터 PSO로 동정된 퍼지 주행 제어기를 이용 하여 주행한다. 이 때, 로봇은 초음파 센서를 이용하여 주변 환경에 대한 거리 정보를 측정하게 되고, 비 젼 센서는 미리 설정된 landmark를 인식하게 된다. land mark를 인식하는 경우 크기와 회전에 강인하며 빠른 속도 를 지닌 SURF 알고리즘을 이용한다. 각 영역으로부터 주 행하며 측정된 센서값들은 오차를 지니고 있다. 제안한 시 스템에서는 센서값들에 의한 오차를 줄이기 위해 파티클 필 터로 융합하는 시뮬레이션을 통해 군집 로봇의 동시적 위치 추정 및 지도 작성을 수행한다. SURF는 정밀도와 좋은 성능을 보유하는 Hessian matrix 기반의 검출기를 기반으로 한다. Determinant가 최대 가 되는 점에서 Blob-like 구조를 추출함으로서 보다 정밀 한 특징점을 추출할 수 있다. 일반적으로 점 에서 Hessian Matrix는 식 (2)와 같이 정의된다. (2) 식(2)에서 는 위치의 입력영상과 의 크 기을 갖는 가우시안의 방향 2차 미분값인 과의 컨벌루션값을 나타낸다. 과 값도 방 향 미분, 방향으로 2차 미분된 가우시안 필터와 컨볼루션 값을 나타낸다. 가우시안은 스케일-스페이스(Scale-Space) 분석에 뛰어난 성능을 갖지만, 많은 연산량이 필요하다. 이 러한 단점을 보완하기 위해 SURF에서는 가우시안 2 차 미 분 필터를 근사화한 Box필터를 적용한다. 그림 3의 (a)는 297
한국지능시스템학회 논문지 2011, Vol. 21, No. 3 가우시안 2차 미분 필터이고 (b)는 가우시안 2차 미분 필터 를 근사화한 Box 필터를 나타낸다. 근사화한 Box 필터는 적은 연산량으로 같은 크기의 필터를 처리하는 연산에서 우 수한 성능을 보인다. 근사화를 적용하여 determinant를 적 용하면 식 (3)으로 나타낼 수 있다. 픽셀 반경 내의 이웃 픽셀 밝기 값에 대한 x, y 방향에 Haar wavelet 응답을 계산한다. 방향의 Haar wavelet 응 답은, 방향의 Haar wavelet 응답은 이다. 여기서 는 특징점을 추출된 스케일이다. Haar wavelet 응답은 벡 터로 표현된다. 그림 5는 x와 y 방향의 Haar wavelet 필터 를 나타내는 그림이다. 그림 5. x와 y방향의 Haar wavelet 필터 Fig. 5. Haar wavelet filters in x and y directions 그림 3. (a) 가우시안 2차 미분 필터 (b) 근사화된 Box필터 Fig. 3. (a) Gaussian second order derivative filter (b) Approximative Box filter det (3) 60 를 커버하는 sliding orientation window내의 Haar wavelet response의 합 벡터를 구하고 이 합 벡터는 특징 점의 방향성을 나타낸다. 이 중 가장 긴 벡터로부터 우세한 방향을 주 방향으로 결정한다. 그림 6은 합 벡터에 의한 해 주 방향을 결정 예를 보여준다. 여기서 상수 는 Hessian 디터미넌트의 균형을 맞추는 데 필요하다. 이는 가우시안 커널과 근사화된 Box형태의 커널의 에너지 보존에 해당하며 는 식 (4)와 같다. (4) 여기서 에서의 1.2는 크기(scale)값이고, 에서의 9 는 Box 필터의 사이즈를 의미한다. 크기에 불변하는 특징 을 얻기 위해서는 특징점이 다른 크기공간에서도 검색되어 야 한다. 일반적으로 영상은 피라미드 형태의 스케일-스페 이스로 구성된다. 영상은 가우시안에 의해 smooth하게 변 환되고, 높은 레벨의 피라미드를 구현하기 위해 sub-sampling된다. 하지만 SURF는 적분영상을 사용하여 각 레이어 마다 같은 속도로 피라미드 Box필터 형태를 구할 수 있다. Up-Sampling의 구현이 연산량의 증가 없이 가능하여 크기 의 변화에도 빠르게 특징점을 추출할 수 있다. 이러한 점은 SURF의 연산량을 효율적으로 줄여준다. 그림 4는 스케일- 스페이스의 피라미드 구조와 SURF의 피라미드 구조를 나 타낸다. 그림 6. 주 방향 결정 Fig. 6. Assignment of dominant direction 적분 영상과 근사화된 Box필터로 인해 크기에 불변하는 특성과 Haar wavelet 필터로 인해 회전에 불변하는 특징을 지닌 특징점을 추출할 수 있다. 하지만 landmark와 비젼 센 서로부터 획득한 영상과의 특징점을 정합하기 위해서는 서술 자가 필요하다. 서술자는 크기와 회전에 불변하는 특징점 정 합을 하기 위하여 64차원의 벡터로 구성되어 있다. 서술자는 특징점 주위의 방향성에 따라 관심영역을 로 구성한 다. 이 관심영역을 의 세부영역으로 분할한다. 각 세부 영역에서 을 샘플링하여 의 4개의 특징 벡터를 구한다. 그림 7은 64차원의 벡터로 구 성된 서술자를 나타낸다. 그림 4. (a) 스케일-스페이스 피라미드 (b) SURF의 피라미드 Fig. 4. (a) Pyramid of scale-space (b) Pyramid of SURF 3.1.2 특징점 서술자와 특징점 정합 SURF는 회전성에 강인한 특징점을 추출하기 위하여 특 징점의 방향성을 추출한다. 먼저, 특징점의 반경 내의 그림 7. 64개의 벡터를 지닌 기술자 Fig. 7. Descriptor with 64th vector 3.2 위치 추정 및 지도 작성을 위한 파티클 필터 파티클 필터를 이용하는 로봇의 위치 추정은 가중치를 가진 다수의 파티클의 분포를 통해서 로봇의 위치를 비교적 정확하게 추정할 수 있다. 또한 확장형 칼만 필터와는 달리 어떤 형태의 확률 분포도 표현할 수 있어 위치 추정 과정에 298
군집 로봇의 동시적 위치 추정 및 지도 작성 서 오차가 누적되지 않는다. 환경 지도 전역에 파티클을 분 포시켜 전역 위치 추정도 가능하게 한다. 그리하여 파티클 필터는 로봇의 전역 위치 추정, Kidnap 등의 문제를 가장 잘 해결해 줄 수 있다. 3.2.1 초기화단계 로봇이 초기 위치에서 출발하는 경우나 로봇 Kidnap의 발생으로 전역 위치 추정이 필요한 경우 초기화단계가 필요 하다. 로봇이 위치한 환경 지도 내에 파티클을 배치하는 과 정이다. 초기화단계에서 각 파티클은 로봇의 상태 정보(위 치와 진행방향)인 와 위치 정보가 가지고 있는 가중치 를 갖게 된다. 이는 식 (5)와 같다. (5) 여기서 은 파티클의 개수이며, 초기화단계에서는 각 파 티클이 가지고 있는 위치 정보는 동일한 가중치를 갖게 된 다. 동일한 가중치를 갖기 때문에 모든 파티클의 위치에 로 봇이 존재할 확률을 가지고 있다. 3.2.2 예측단계 예측단계에서는 로봇의 제어 입력에 의해 각 파티클들이 이동하게 되는 위치를 예측한다. 로봇의 위치와 진행 방향 의 상태를, 제어 입력을, 측정된 센서 값을 라 하면 시간 t일 때 Bayes filter를 적용한 로봇의 상태 정보를 예 측하는 제안 분포는 식(6)과 같다. (6) 이전의 로봇의 상태 정보인 에서의 확률인 에 을 적용하여 새로운 로봇의 상태 정보의 확 률을 계산한다. 로봇은 제어 입력에 의해 정확한 이동이 불 가능하며 이동을 수행하는 동안의 오차가 발생하게 된다. 따라서 예측된 현재의 로봇 상태 정보는 이전의 로봇의 상 태정보와 제어 입력에만 의존하며 현재 시간 에서의 각 파 티클의 분포를 예측하게 된다. 3.2.3 중요성 추출 단계 파티클 필터를 이용하여 로봇의 위치를 추정하기 위해서 는 실제의 위치와 근접한 파티클의 군집을 형성해야 하므로 각 파티클에 가중치를 준다. 각 파티클의 가중치를 계산하 기 위해서는 현재 로봇의 상태 정보를 알아야 한다. 현재의 로봇의 상태 정보는 식 (7)과 같다. (7) 예측단계에서 예측된 파티클의 분포와 실제 정보를 이용 하여 가중치를 구하는 식 (8)과 같다. 식 (8)에 의해 계산된 가중치는 식 (9)로 각 파티클에 적 용된다. 3.2.4 재추출 단계 (8) (9) 현재 시간 에서 중요성 추출 단계에서 계산된 새로운 가중치를 가지고 있다. 재추출 단계에선 각 파티클이 지닌 가중치를 이용하여 로봇 상태 정보를 추정하기 위해 파티클 의 군집을 생성하는 단계이다. 기존에 각 파티클들이 지닌 가중치와 새로 계산된 가중치와 비교하여 가중치가 낮은 파 티클들을 삭제하고, 삭제된 파티클의 수만큼 파티클이 복제 하게 되어 파티클의 수는 일정하게 되고, 복제되는 파티클 들은 가중치가 높은 파티클이 순서대로 복제되기 때문에 실 제 로봇이 위치할 확률이 높은 곳에 군집이 형성된다. 3.2.5 업데이트단계 재추출 단계를 거쳐 형성된 파티클을 산술 평균을 이용 하여 로봇의 위치를 추정하게 되고 측정된 센서 값으로 지 도를 작성하게 된다. 현재 시간 에서 초기화단계을 통해 다시 새로운 파티클이 생성되고 가중치를 으로 부여하고, 예측단계로 돌아간다. 4. 실험 및 결과 고찰 본 논문에서 제안하는 군집 로봇의 동시적 위치 추정 및 지도 작성 시스템은 미지의 환경에서 로봇이 지닌 엔코더, 초음파 센서, 비젼 센서 값을 융합하는 시뮬레이션을 통해 로봇의 위치를 추정하며 동시적으로 지도를 작성하는 것이 목적이다. 본 논문에서 실험에 사용한 로봇은 그림 9와 같다. 본 논문에서 실험에 사용한 로봇은 한울 로보틱스에서 개 발한 HANURI-RS2형 로봇으로 상부12 개 하부 12개로 총 24개의 송수신겸용의 폴라로이드사의 실험용센서가 15 도 간격으로 배치되어 360 를 커버하도록 되어 있고, Zeca사의 33만 화소의 usb카메라를 지니고 있고, 실험 환경을 3개 영 역으로 분할한 후 각 영역에서 로봇을 주행시켜 얻은 센서 측정값을 기반으로 융합하여 시뮬레이션을 하였다. 시뮬레이 션을 하기 위해 미리 설정한 landmark와 로봇이 위치 추정 및 지도 작성을 하기 위해 3개의 영역으로 분할된 실험 환경 은 m이고 그림 10과 같다. 비젼 센서로부터 landmark 를 인식하기 위하여 4개의 landmark를 임의의 위치에 설정하 였다. 분할된 각 영역에서 로봇은 일정한 속도로 주행을 하면 서 로봇 주위의 환경 데이터 값(센서 값)을 획득하였다. 로봇은 지도를 작성하기 위해 사용한 초음파 센서는 A 9~ A11만을 사용하였다. 엔코더를 통해서 로봇의 이동거리 를 알 수 있지만, 바퀴의 미끄러짐 등의 오차가 발생한다. 정면의 거리를 측정해 주는 초음파 센서 A1과 후면의 거리 를 측정해주는 초음파 센서 A7은 엔코더의 오차를 등을 보 완해주었다. 지도를 작성할 때, 간혹 벽면으로부터 얻은 초 음파 센서 값이 정면과 후면의 거리 정보를 측정하는 초음 299
한국지능시스템학회 논문지 2011, Vol. 21, No. 3 파 센서 A1과 A7보다 더 큰 경우 값을 제거하였다. 용한 파티클의 수는 각 30개씩 90개를 사용하였다. 그림 13은 실험 환경을 분할한 3개의 영역에서 측정된 데이터 값을 기반으로 시뮬레이션을 통해 군집 로봇의 위치 추정을 하며 지도를 작성한 결과를 나타낸다. 그림 14는 각 영역에서 로봇의 주행 후 측정된 센서 값들을 파티클 필터 로 융합하여 로봇의 위치를 추정하며 지도를 작성한 결과를 나타낸다. 그림 9. (a) HANURI-RS2 (b) 이동로봇의 구성 Fig. 9 (a) HANURI -RS2 (b) Structure of mobile robot 그림 12. (a) 영역 1에서 주행 데이터 결과 (b) 영역 2에서 주행 데이터 결과 (c) 영역 3에서 주행 데이터 결과 Fig. 12. (a) Result of navigation in 1st zone (b) Result of navigation in 2nd zone (c) Result of navigation in 3rd zone 그림 10. Landmark와 실험 환경 Fig. 10 Landmark and test environment 실험 환경에 landmark가 있는 경우, SURF 알고리즘을 이용하여 인식하였다. 그림 11은 영역 1에서 측정된 센서 값만을 기반으로 하여 로봇의 위치를 추정하며 지도 작성 과정 중 landmark를 인식하였을 때의 그림을 나타낸다.로 봇이 주행하며 landmark를 인식하였을 경우 landmark의 위치는 비젼센서의 방향과 초음파 센서 A1의 방향이 동일 하여 초음파 센서 A1의 데이터 값을 기반으로 하였으며 landmark를 인식한 위치에 나타내었다. 그림 13. 측정된 센서 값만을 이용한 지도 Fig. 13 Map using sensor's data 그림 14. Particle f ilter를 이용한 지도 Fig. 14 Map using particle f ilter 그림 11. Landmark 정합 Fig 11. Landmark matching 그림 12의 (a)는 1영역에서 (b)는 2영역에서 (c)는 3영역 에서 측정된 센서값을 기반으로 하여 로봇의 위치 추정 및 지도 작성을 나타낸 그림이다. 1영역과 3영역에서는 벽면의 거리 정보가 부정확함을 알 수 있으며, 2영역에서는 로봇의 진행 정보에 대한 오차가 발생하여 작성된 지도의 정확성이 떨어짐을 알 수 있다. 센서 오차에 의해 정확성이 떨어지는 현상을 보완하고자 파티클 필터로 센서 값들을 융합하여 로 봇의 위치 추정 후 지도를 작성하는 시뮬레이션을 수행하였 다. 3개의 각 영역에 대한 로봇의 위치를 추정하기 위해 사 측정된 센서값을 기반으로 한 지도는 주변 환경에 대한 부정확한 거리 정보와 로봇의 진행방향을 손실하여 로봇의 상태 정보에 대한 오차가 누적되어 부정확한 지도가 작성되 었지만 파티클 필터로 센서 값들을 융합하여 각 영역에서 로봇의 위치를 추정하며 작성된 지도는 손실된 로봇의 상태 정보에 대한 오차를 줄여줌으로써 로봇들의 정확한 위치를 추정할 수 있었으며 추정된 위치에서 센서값으로 지도를 작 성함으로써 실험환경과 유사한 지도가 작성하였다. 5. 결 론 본 논문에서는 군집 로봇의 동시적 위치 추정 및 지도 작 성 시스템을 제안하였다. 로봇은 실험환경에서 주변 환경을 300
군집 로봇의 동시적 위치 추정 및 지도 작성 인식하기 위해 초음파센서와 비젼 센서를 이용하였다. 실험 환경을 3개의 영역으로 분할하였고, 로봇은 각 영역에서 초 음파 센서로 주변 환경에 대한 거리 정보를 측정하였고, SURF 알고리즘을 이용하여 비젼센서로부터 입력받은 영상 과 landmark의 특징점을 정합하여 landmark를 인식하였다. 측정된 센서값에는 오차가 존재하기 때문에 로봇의 정확한 위치 추정 및 지도 작성을 하기 위해 파티클 필터를 이용하 여 측정된 센서값을 융합하였다. 파티클필터는 어떤 형태의 확률 분포도 표현할 수 있어 로봇의 위치 추정 과정에서 오 차가 누적되지 않는다는 장점을 가지고 있어 가중치를 가진 다수의 파티클의 분포를 통해서 로봇의 위치를 비교적 정확 하게 추정할 수 있어 측정된 센서값으로 지도를 작성하여 로봇의 협업으로 실험환경에 대한 지도가 작성되었다. 제안 된 방법은 센서값들에 대한 오차에 민감하지 않고 실험환경 에 비교적 정확한 지도를 작성함으로써 응용 가능성을 증명 하였다. 참 고 문 헌 [1] J. Stipes, R. Hawthorne. D. Scheidt, D. Pacifieo Cooperative Localization and Mapping", Networking, Sensing and Control, 2006. ICNSC '06 Proceedings of the 2006 IEEE International Conference on, pp 596-601, 2006 [2] T. Tong, H. Talou, Y. Jing, S. Fengchi, "Multi- robot C ooperativ e map Building in Unknown Environment Considering estimation Uncertainty", Control and Decision Conference, 2008, CCDC 2008. Chinese, pp 2896-2901, 2008 [3] Primo Z ingaretti, E manuele Frontoni, "Vision and sonar fusion f or mobile robot localization in aliased env ironments", Mechatronics and Embedded Systems and Applications, Proc. of the 2nd IEEE/ASME International Conference on, Aug, 2 0 0 6 [4] J. Kennedy and R. E berhart " Particle Swarm O ptimization ", IEEE International conference on Neural Networks, Vol.4, pp.1942-1948, NOV. 1995. [5] 문현수, 주영훈 PSO를 이용한 지능형 로봇의 원격 주행 제어, 한국 로봇 학회, vol. 5, N o. 1, pp6 4-6 9, 2010 [6] A.A.A Esmin, A.R Aoki, and G. Lambert-Torres "P article Swarm Optimization For Fuzzy Membership Functions Optimization ", IEEE international Conference on Systems, Mans and Cybernetics, Vol.3, pp.6-13, Oct. 2002 [7] D.G. Lowe, "Distinctive image features from scale invariant keypoints", International Journal of Computer Vision, vol. 60, No.2 pp. 91-110, 2004 [8 ] Herbert Bay, Andreas E, T inne T uytelaars and Luc V an Gool, "Speeded- U p Robust Features", Computer Vision and Image Understanding, Vol 110, Issue 3, pp 346-359, June 2008 [9] D. Fox, W. Burgard, F. Dellaert and S. Thrun, "Monte Carlo Localization : E ff icient Position Estimation for Mobile Robots,", Proc. of the National Conference on Artificial Intelligence, 1999 [10 ] C. Kwok, D. Fox, M. Meila, "Real- time particle filters", Proc of the IEEE, vol. 92, pp. 469-484, 2004 [11] S. Thrun, D. Fox, W. Burgard and F. Dellaert " Robust Monte Carlo Localization for Mobile Robots", Artificial Intelligence, summer 2001 [12 ] H. Z hou and S. Sak ane "Sensor P lanning f or Mobile Robot Localization - A Hierarchical Approach Using Bayesian Network and a Particle Filter", IEEE Transactions on Robotics, vol. 24, no. 2, April, 2008 저 자 소 개 문현수(Hyun Su Mun) 2009년 : 군산대학교 전자정보공학부 졸업 2 0 0 9 년~ 현재 : 군산대학교 전자정보공학부 석사과정 관심분야 : 지능형 로봇, 위치 추정 및 지도 작성, SURF, Paritcle filter, 지능 제어 Phone : 063-469-4706 E-mail : ansgustn@nate. com 신상근(Sang Guen Shin) 1991년 : 정일대학교 전자공학과 졸업 1998년 : 전북대학교 대학원 전자공학과 졸업(공학석사) 2007~ 현재 : 군산대학교 대학원 전자정보 공학과 박사과정 재학 1993~ 현재 : 한국폴리텍 김제대학 메카트 닉스과 교수 관심분야 : 메카니즘 설계 및 구성, 전자제어기술, 지능형 로봇, 자동화시스템 Phone : 063-540-7762 E-mail : geunss@kopo.ac. kp 주영훈(Young Hoon Joo) 제 21권 2호(2011년 4월호) 참조 301