휴머노이드로봇의안전한차량주행전략및원격제어인터페이스개발 Development of Tele-operation Interface and Stable Navigation Strategy for Humanoid Robot Driving 저자 (Authors) 신세호, 김민성, 안준우, 김상현, 박재흥 Seho Shin, Minsung Kim, Joonwoo Ahn, Sanghyun Kim, Jaeheung Park 출처 (Source) 제어로봇시스템학회논문지 22(11), 216.11, 94-911 (8 pages) Journal of Institute of Control, Robotics and Systems 22(11), 216.11, 94-911 (8 pages) 발행처 (Publisher) 제어로봇시스템학회 Institute of Control, Robotics and Systems URL http://www.dbpia.co.kr/article/node745242 APA Style 신세호, 김민성, 안준우, 김상현, 박재흥 (216). 휴머노이드로봇의안전한차량주행전략및원격제어인터페이스개발. 제어로봇시스템학회논문지, 22(11), 94-911. 이용정보 (Accessed) 서울대학교 147.47.121.*** 216/12/9 13: (KST) 저작권안내 DBpia 에서제공되는모든저작물의저작권은원저작자에게있으며, 누리미디어는각저작물의내용을보증하거나책임을지지않습니다. 그리고 DBpia 에서제공되는저작물은 DBpia 와구독계약을체결한기관소속이용자혹은해당저작물의개별구매자가비영리적으로만이용할수있습니다. 그러므로이에위반하여 DBpia 에서제공되는저작물을복제, 전송등의방법으로무단이용하는경우관련법령에따라민, 형사상의책임을질수있습니다. Copyright Information Copyright of all literary works provided by DBpia belongs to the copyright holder(s)and Nurimedia does not guarantee contents of the literary work or assume responsibility for the same. In addition, the literary works provided by DBpia may only be used by the users affiliated to the institutions which executed a subscription agreement with DBpia or the individual purchasers of the literary work(s)for non-commercial purposes. Therefore, any person who illegally uses the literary works provided by DBpia by means of reproduction or transmission shall assume civil and criminal responsibility according to applicable laws and regulations.
Journal of Institute of Control, Robotics and Systems (216) 22(11):94-911 http://dx.doi.org/1.532/j.icros.216.16.153 ISSN:1976-5622 eissn:2233-4335 휴머노이드로봇의안전한차량주행전략및원격제어인터페이스개발 Development of Tele-operation Interface and Stable Navigation Strategy for Humanoid Robot Driving 신세호, 김민성, 안준우, 김상현, 박재흥 * (Seho Shin 1, Minsung Kim 1, Joonwoo Ahn 1, Sanghyun Kim 1, and Jaeheung Park 1,2,* ) 1 Department of Transdisciplinary Studies, Seoul National University 2 Advanced Institutes of Convergence Technology Abstract: This paper presents a novel driving system by the humanoid robot to drive a vehicle in disaster response situations. To enhance robot s capability for substituting human activities in responding to natural and man-made disaster, the one of prerequisite skills for the rescue robot is the mounted mobility to maneuver a vehicle safely in disaster site. Therefore, our driving system for the humanoid is developed in order to steer a vehicle through unknown obstacles even under poor communication conditions such as time-delay and black-out. Especially, the proposed system includes a tele-manipulation interface and stable navigation strategies. First, we propose a new type of path estimation method to overcome limited communication. Second, we establish navigation strategies when the operator cannot recognize obstacles based on Dynamic Window Approach. The effectiveness of the proposed developments is verified through simulation and experiments, which demonstrate suitable system for driving a vehicle in disaster response. Keywords: tele-operation, global dynamic window approach, collision avoidance, semi-autonomous I. 서론 211년 3월, 일본에서발생한대지진으로인하여후쿠시마원자력발전소에서방사능오염물질이대량으로유출되었다. 방사능오염물질의누수를막기위해세계여러곳에서개발된재난구조용로봇을투입하려하였으나, 불확실한지형지물, 낮은통신품질, 그리고어두운내부환경등의제한요소를극복하지못하였기때문에재난현장에투입할수없었다 [1]. 이로인해향후 5여년간은후쿠시마에사람이살수없는재앙이닥치고 332조원의경제적손실이발생하였다. 이같은재난상황에따른인적 / 재산적손실을방지하고자, 미국방위고등연구계획국 (US Defense Advanced Research Projects Agency, 이하 DARPA) 에서는후쿠시마원전사태와유사한재난현장에서활용가능한재난구조로봇과제어기술을개발하고자하였다. 이에따라 DARPA 는 DARPA Robotics Challenge Trials 213(DRC Trials 213) 과 DARPA Robotics Challenge Finals 215(DRC Finals 215) 라는이름의세계재난구조로봇경진대회를개최하였다. 참가한다양한나라의연구팀들은각자의독자적인알고리즘과하드웨어를이용하여재난상황에서인간이해결할수없는다양한구조업무를수행하였다. 특히, DRC Finals 215에서는 1시간동안총 8개 * Corresponding Author Manuscript received August 9, 216 / revised October 1, 216 / accepted October 1, 216 신세호, 김민성, 안준우, 김상현, 박재흥 : 서울대학교융합과학기술대학원 (shinsh@snu.ac.kr/minsungkim@snu.ac.kr/joonwooahn@snu.ac.kr/ggory15@ snu.ac.kr/park73@snu.ac.kr) 의미션 ( 자동차운전, 자동차내리기, 문열기, 밸브잠그기, 드릴로벽뚫기, 장애물극복하기, 계단오르기등 ) 을수행하여야했다 [1]. 그중, DRC Finals 215의첫번째미션과두번째미션인 자동차운전미션 과 주차후자동차하차미션 은방사능오염지역이나산불지역등인간이가까이접근할수없는재난지역에서는로봇이차량에탑승하여스스로운전하여재난구조현장까지가야만한다는점에서착안하여만든미션이다. 위의두미션을성공적으로수행하기위해서, 로봇이자동차의스티어링핸들 (steering Handle) 이나페달 (pedal) 을스스로조작하는로봇제어시스템을갖출뿐만아니라, 장애물과도로를인식하거나주행경로를생성하는높은수준의자동차주행시스템을탑재하여야한다 [2]. 특히, 재난현장의경우통신환경의제약으로인한영상지연때문에로봇을조종하는사용자가로봇의주위환경을정확히인지하지못할가능성이높다. 그러므로, 휴머노이드로봇을이용한원격자동차운전은통신지연으로인한영상지연을고려한주행경로생성능력과돌발장애물을로봇스스로회피하는주행능력이필수적으로갖추어야한다. 위와같은휴머노이드로봇을이용한자동차운전에대한사전연구로는로봇을원격조종해서차량을제어할때에카메라를통한회피경로를생성하는연구가있지만통신지연에대한고려가부족하다 [3]. 또한회피시갑작스럽게발생되는돌발장애물에대한고려가부족하여충돌가능성이있다 [4]. 또한 [5] 의경우는차량내외부의자기위치인식을통해주행전략을세우지만, 탑승한로봇의센서범위의제약이있어다양한상황에서의적용이어렵다. Copyright ICROS 216
Development of Tele-operation 휴머노이드로봇의 Interface 안전한 and 차량 Stable 주행 Navigation 전략및 Strategy 원격제어 for 인터페이스 Humanoid 개발 Robot Driving 95 그러므로앞서언급한선행연구들의단점들을극복하고자, 본논문에서는휴머노이드로봇원격으로제어하여차량을주행하기위한방법을제안하고자한다. 특히, 재난현장에서발생될수있는통신지연에도원격지에있는조작자가주행상황을직관적으로알수있도록인터페이스구축방법을다룬다. 또한센서정보수신지연으로조작자가대처하기힘든돌발장애물에대해서로봇이능동적으로대응하기위한회피주행방법에대해제안한다. 논문의구성은다음과같다. II장은휴머노이드기반차량원격제어시스템에대해다룬다. III장은센서지연정보를고려한원격인터페이스구축방법을논의한다. IV장은로봇이돌발장애물을회피하기위한방법으로제안된 Supervisory Dynamic Window Approach에대해다룬다. V장에서는실험결과및분석을하고, VI장에는본연구에대한결론으로마무리짓는다. II. 휴머노이드기반차량원격제어시스템본연구의차량원격제어에사용된로봇은총 32개의모듈형액추에이터로구성된휴머노이드로봇이다. 본로봇은 DRC Finals 215 에 TEAM SNU팀의 THORMANG이라는이름으로출전하였다. 휴머노이드로봇이탑승한차량시스템은 Polaris사의 Ranger XP9이다. 차량은 45kg의페이로드에 2 륜구동이며최대속도는 1mph 이다. 차량의조향비는실험적으로측정하였고약 17.6:1이다. 그림 1은 THORMANG이차량에탑승하여주행미션을수행하는모습이다. 1. Hardware Architecture THORMANG은 147cm신장, 6kg의중량그리고 195cm의팔폭으로설계되었다. 총 32 자유도로양팔에각각 8자유도, 양다리에각 6자유도그리고몸통과머리에각각 2자유도를갖는다. 센서는머리부분에 4대의카메라와 1개의레이저스캐너그리고양쪽발에 FT센서가장착되어있다. 로봇의연산처리는 2대의 PC를통해수행하며, 제어를위한 RCU (Robot Control Unit) 과환경인식을위한 RPU (Robot Perception Unit) 으로구분된다. 또한, 본휴머노이드로봇을원격지에서조작하기위한원격시스템은 OCU (Operator Control Unit) 과주행인터페이스로구성되어있다. 세부적인제원및통신인터페이스와관련된내용은 [6] 에상세하게 그림 1. 휴머노이드를이용한차량주행모습. Fig. 1. Humanoid Robot Driving using Teleoperation. 그림 2. THORMANG 의 Hardware Architecture. Fig. 2. Hardware Architecture of THORMANG. 다루고있고, 본논문에서는주행과관련한센서및인터페이스에대해다루도록한다. 그림 2는 Hardware Architecture 를도식화한그림이다. 본시스템에서차량주행을위해하드웨어적으로고려된부분은영상정보취득을위한카메라선정과조작자를위한인터페이스그리고차량의속도제어를용이하게할수있도록설계된가 / 감속기구부가있다. 카메라는원격지에있는조작자에게현장감을제공할수있는핵심적인센서이다. 따라서원격주행에사용되는카메라는실외환경의조도변화에강인한 Auto Iris가지원되는카메라를선택하였다. 통신인터페이스는안정적인이미지전송및에러핸들링을위해 GigE 방식을채택하였다. 또한 12도화각의렌즈를통해사각지대가최소화되도록하였다. 본카메라는 THORMANG의머리뒷부분에장착되어주행미션에사용되었다. 다음으로원격지의조작자가직관적으로가 / 감속입력과조향각명령을내릴수있도록로지텍사의 G27의가감속페달과핸들을사용하였다. 마지막으로로봇이차량의가 / 감속제어를용이하게할수있도록그림 3과같은가감속기구부를설계하여장착하였다 [7]. 로봇이본기구부의페달을밟게되면 Transmission Shaft를통해가속페달을밟게되는구조이다. 차량의가속페달과기구부의페달간의비율은 blocker를통해조절가능하도록설계되었다. 2. Software Architecture 로봇을이용한차량주행시모션을만들기위한제어모듈은 RCU가담당을하고, 센서와관련된처리는 RPU에서담당을한다. 필드서버에는두대의 FCU (Field Computer Unit)
96 신세호, 김민성, 안준우, 김상현, 박재흥 이있다. 이는각각제어와인식에관한정보들을처리하고, 전송하는역할을수행한다. 그리고원격인터페이스를담당하는시스템은총 3대의 OCU (Operator Computer Unit) 으로구성되어있다. 각시스템의 Software Architecture는 [6] 에상세하게다루고있고, 본장에서는원격제어시스템과관련한부분에대해설명하도록한다. 그림 4에 THORMANG을위한원격시스템의 Software Architecture를도식화하였다. 본논문에서중점을둔차량주행을위한인터페이스는 OCU3에있으며총 3개의모듈로구성된다. 먼저 Robot Commander 모듈은핸들과가감속페달로이루어진주행인터페이스로부터입력받은정보를로봇의제어입력으로변환하여 FCU로전송을담당한다. 그리고 Inverse Perspective Viewer는조작자에게현장의영상및차량의예상주행궤적정보를제공하며자세한내용은 III장에서다룬다. 마지막으로 Device Manager 는하드웨어주행인터페이스장치와통신을위한모듈로핸들및가감속페달의상태정보를모니터링하는역할을수행한다. 그림 3. 속도제어를위한가감속제어부 ( 위 ) 및차량에적용한모습 ( 아래 ). Fig. 3. Pedal assistance tool (Top) and its application (Bottom). 그림 4. THORMANG 의 Software Architecture. Fig. 4. Software Architecture of THORMANG. III. 주행인터페이스휴머노이드를이용한원격주행시조작자가차량에탑승한로봇으로부터취득한영상정보만으로차량의상태를파악하는것은어렵다. 이는조작자가장애물을회피하거나차량을원하는위치에정차시키기위한입력값을결정하는데어려움을준다. 따라서조작자가주변상황에대한인지능력을향상시키고, 차량의상태정보를직관적으로알수있도록인터페이스를설계하는것은매우중요하다. 이를위해현장의영상정보를 3차원으로재구성하여공간감을함께전달하거나 2차원영상정보에차량예상궤적을함께나타내기도하였다 [3,4]. 하지만이러한방법들은통신환경에대한고려가부족하여재난현장과같이전송대역폭이낮아정보지연이발생되는경우장애물과충돌위험성이나목표지점과의거리오차가증가할수있다. 이를위해본장에서는통신환경이열악한환경에서도적용가능하도록통신지연을최소화하기위한영상데이터처리방법및지연시간을고려한주행궤적생성방법에대해논의하고자한다. 1. Inverse Perspective Mapping 기반인터페이스 IPM (Inverse Perspective Mapping) 이미지변환방법은주행도로면과장애물들을마치하늘위에서보는것과같이변환하는것을의미한다 [8,9]. 이방법은현재차량의위치와도로에있는장애물과의상대적인거리를조작자로하여금직관적으로알수있도록돕는다. 본장에서는앞서설명한장점뿐만아니라전송량을줄이기위한 IPM 이미지활용방법에대해다루고자한다. 본연구에적용된주행인터페이스는 IPM 이미지전체를메시지송수신에사용하지않고, IPM 이미지가갖는거리정보를활용하여현시점에서차량이주행가능한영역에대해 ROI를설정하였다. 그리고이 ROI 영상을원격지에있는조작자에게전송하였다. 이는 2D 영상정보를 IPM 변환을통해거리정보가반영되어영상의일부영역의영상으로도충분한정보의제공이가능하다. 또한, 이미지수신시점의주행계획과관련없는정보를제거할수있다. 특히 DRC 대
휴머노이드로봇의안전한차량주행전략및원격제어인터페이스개발 97 회와같이최대전송유닛 (MTU: Maximum Transmission Unit) 을제약이있을경우 64x48 이미지를 396x2으로전송시약 3배의지연시간이감소된다. 그림 5는본내용을도식화한것으로 (a) 는로봇으로부터취득된영상의일부영역을추출하고, IPM 변환을통해적은양의데이터로도주행에필요한영상정보를추출할수있음을보인다. (b) 는지연시간을계산한것으로최대전송유닛이 15byte일경우각 64x48 이미지를전송하는데.741376초, 392x2 이미지를전송하는데.191136초로약 3배이상의지연효과가있음을알수있다. 이미지변환방법은도로면이편평하다라는가정을통해 2D 정보를 3D 정보로변환할수있다. 자세한과정은다음과같다. 먼저카메라의이미지좌표계를설정하기위해카메라내부인자인 focal length, optical center, distortion parameters 정보를캘리브레이션을통해얻는다. 그리고로봇이차량에탑승했을때, 카메라의지면으로부터의높이와카메라와차량의오프셋정보를계산한다. 이를이용하여로봇에장착된카메라좌표계와실제도로면좌표계사이의변 환행렬을다음과같이구할수있다 [8]. (a) (b) 그림 5. IPM 이미지처리과정 (a) 및데이터크기의축소를통한지연시간감소 (b). Fig. 5. IPM image processing (a) and reduction of the delay time (b).,,,1 cos, sin (1) (2), 는각각도로면좌표계와카메라좌표계를의미한다. 두좌표계사이의변환 는식 (2) 와같으며, 는카메라내부인자인 focal length와 optical center에대한정보이다. 그리고 는카메라의 pitch 각도, 는카메라의 yaw를의미한 다. 본영상처리방법은본연구팀에서제안한논문 [1] 과같이카메라에모터와엔코더정보를고려하여카메라외부인자를추출하면, 다양한시야각에대한영상정보의제공도가능하다. 2. 영상지연을고려한주행궤적알고리즘주행궤적생성은차량의동적인현상태에대한정보와이에적합한모션모델을통해계산된다. 대표적인차량궤적생성방법으로차량의선속도와각속도를고려한 CTRV (Constant Turning Rate and Velocity) 방법과가속도의정보까지고려된 CTRA (Constant Turning Rate and Acceleration) 모델이있다 [11,12]. 이외에도도로의곡률정보가고려된 CCA (Constant Curvature and Acceleration), 동역학모델 [13, 14] 등도있으나휴머노이드를이용한차량주행시, 모델의입력값 ( 도로곡률, 타이어미끌림정보등 ) 을직접적으로얻기가용이하지않아모델선정시배제하였다. 앞서언급한 CTRV 와 CTRA 두모델은가속도의고려여부에의해수식이달라지며, 조향변화가크지않은주행환경에서는두모델을통해계산된궤적의오차가크게발생되지않는다. 또한일반적인통신지연이없는환경에서는궤적의업데이트주기가빠르기때문에비교적단순한 CTRV 모델도많이적용되고있다. 하지만재난현장과같이통신지연이발생되어업데이트주기가늦거나, 장애물등의회피를위해큰조향변화가요구되는환경에서는 CTRA 모델이 CTRV 모델에비해곡률오차가적어더욱적합하다. 하지만 CTRA모델의사용을위해서는가감속에대한추가적인정보를필요로하기때문에, 로봇이차량의페달링에따른가감속프로파일과정이요구된다. 아래는 CTRA 모델수식이다 [11]. (3) 1 sin acos sin acos 1 cos asin sin acos,, 는차량의위치와조향각에대한정보이고, v, a, 는각각속도, 가속도, 각속도를의미한다. 그리고 T는현시점 t 로부터예측할시간의간격이다. 여기서위치정보와선속도는시간에따른변수이고, 가속도와각속도는일정한상수값으로정의하며, 본모델은차량의미끌림이나도로면의각도는무시한다. 이모델은앞서설명한 Inverse Perspective Image와함께출력하여조작자에게정보를제공함으로써예측된주행궤적이장애물과의충돌직관적으로알수있고, 조작자가원하는위치에차량을주 / 정차하는임무수행이가능하다. 하지만이방법은실제주행환경중에발생될수있는통신제약에대한고려가부족하다. 즉, 통신의대역폭이낮아
98 Seho Shin, Minsung 신세호 Kim,, 김 Joonwoo 민성, 안 Ahn, 준우 Sanghyun, 김상현 Kim,, 박재 and 흥 Jaeheung Park 그림 6. Dynamic Window 개요. Fig. 6. Illustration of Dynamics Window. 이미지전송에지연이있는경우, 이미지취득된시간과수신된시간사이의지연시간으로인해앞서논의된궤적의오차가높아질수있다. 이로인해장애물과의충돌위험성이높아지고, 원하는위치에주 / 정차의어려움이가중된다. 이를극복하기위해 CTRA 모델에지연정보를고려하는방법을아래와같이제안한다. 애물에대처가가능한방법에대해다루고자한다. 이를위해로봇의회피경로생성방법인 Dynamic window approach 방법을확장한 Supervisory Dynamic window approach 방법을제안한다. 1. Dynamic Window Approach DWA (Dynamic Window Approach) 는속도평면기반회피경로생성방법중에하나이다 [16,17]. 지역적인회피경로생성방법은 PF (Potential Field), VFH (Vector Field Histogram), MPC (Model Predictive Control) 등다양한방법들이제안되어왔다. 하지만 PF나 VFH의경우주행할차량의논홀로노믹특성을반영하기에어렵고, 로봇을통한차량조작시차량의동역학상태정보를직접적으로얻을수없어 MPC 기반방법도사용할수없다 [18-21]. 따라서, 본연구에서는차량기구학적정보를반영하면서구속조건들을모델링하기용이한 DWA 방법을선택하였다. 이방법은기구학적구속조건과장애물에대한구속조건들을비용함수로설정하여장 (4) 와 는각각이전각속도와가속도에대한값이고, 와 는현재입력된각속도와가속도값이다. 는이미지가생성된시점을의미하며, 영상생성시함께기록하여전송받는다. 궤적생성은다음과같이두단계로계산된다. 첫번째과정은지연된시간에대한궤적을계산하여지연영상정보내현시점의위치를계산하는것이다. 이는이전각속도와가속도를이용해식 (4) 의 의조건에대해계산해준다. 두번째과정은앞서계산된이미지내현위치로부터입력될각속도와가속도에대해궤적을예측하는것이다. 이방법은궤적생성시이미지의업데이트주기에대한정보뿐만아니라이미지지연시간과제어명령에대한지연시간을고려하여보다정확한궤적생성이가능하다. 이방법은 DRC Finals 215의차량미션에요구되는장애물회피주행과로봇하차를위해지정된플랫폼에차량을근접주차하기위한인터페이스로서역할을수행하였다 [15]. IV. SUPERVISORY DYNAMIC WINDOW APPROACH 앞서제안한인터페이스는비교적주변환경이정적이거나원하는목표지점에주차하기위해저속으로주행하는경우유용하게사용될수있다. 하지만주변장애물이동적으로존재하는경우나고속으로주행시발생되는돌발장애물에대해서는영상지연문제로인해적절한대처를할수없다. 따라서비교적차량을빠르게이동해야할경우돌발장 (a) Delay images taken for 1Hz without path estimation. (b) Delay images taken for 1Hz with propose method. (c) Images taken in 5 Hz without delay. 그림 7. 지연시간에따른오차분석. Fig. 7. Performance Analysis for Path Estimation Method.
Development of Tele-operation 휴머노이드로봇의 Interface 안전한 and 차량 Stable 주행 Navigation 전략및 Strategy 원격제어 for 인터페이스 Humanoid 개발 Robot Driving 99 애물과충돌이없는최적경로를구하는방법이다. 자세한내용은다음과같다. 먼저시스템이가질수있는최대속도와각속도를고려하여가능한속도범위 를구한다. 그리고로봇의현재속도와가속도에대해일정한주기동안가질수있는속도의범위 를계산한다. 또한장애물의위치를고려하여장애물과충돌이없는속도범위 를계산한다. Dynamic Window Approach는그림 7과같이앞서설명한세가지의속도범위의교집합영역을시스템이가질수있는속도영역 (Dynamic Window) 으로제한한다. 그리고이범위내에서목표지점까지비용, 장애물과의공차, 목표지점에최단시간내에도달하기위한비용을함수화하여최적비용을갖는로봇입력속도를계산한다. 2. Supervisory Dynamic Window Approach 기존 DWA (Dynamic Window Approach) 방법의목표지점에대한비용함수를계산하기위해서는현재차량시스템을기준으로목표지점까지의상대좌표정보가요구된다. 이를위해 GPS나 SLAM 등과같은위치추정방법통해매주기마다목표위치에대한정보를차량을기준으로한좌표계로변환하여계산한다. 하지만재난상황의경우주변구조물로인한 GPS 음영지역이많이발생하여 GPS기반의위치추정이어려울수있고, 로봇이차량으로부터센서정보를얻기가용이하지않아 SLAM 방법도적합하지않다. 이러한문제로인해 [3] 에서는 DWA 를목표지점에대한비용을고려하지않고, 장애물충돌에대한비용과조향변화량에대한비용을이용하여경로를생성하는방법을제안하였다. 하지만이방법은다중경로가존재하는환경에서목표지점으로수렴하지않는경로를생성될수있다. 본절에서는다중경로가존재하는환경에서도적용가능하도록 SDWA (Supervisory Dynamic Window Approach) 를제안한다. SDWA 는원격주행시목표지점을주행예상궤적의마지막지점으로설정한다. 하지만기존시스템과달리재난현장에서는이미지전송지연등으로인해조작자가주행예상궤적을지속적으로결정할수없다. 따라서조작자는목표지점을이미지를전송받은시점에로봇에목표지점에대한정보를전송하고, 다음목표를전송받기전까지는로봇의현재속도정보와조향정보를이용하여 Dead Reckoning 을통해목표지점에대한정보를업데이트하는방법을제안한다. 즉, 조작자는로봇에게감독자역할로서최소한의목표지점정보를지시하는것이다. 이를위해로봇은새로운목표입력이들어오기전까지관성센서정보를기반으로추측항법을수행하여현재차량위치를예측한다. 그리고이전목표입력위치와차량의위치정보를바탕으로현시점의지역적인목표위치를아래와같이계산한다. P (5) 여기서 와 은조작자로부터목표지점 (P 을입력받은시점의차량위치와방향각을나타내고, 와 는 Dead Reckoning을통해예측된현시점의차량의위치를나타낸다. 여기서 Dead Reckoning은로봇의관성센서를이용하 고, 주행인터페이스궤적과동일한 CTRA 모델을사용하여 Exact Integration 방법을적용한다. 은로봇이 SDWA 계산을위한새목표위치로두시점의차량위치관계를이용하여계산되었다. SDWA 의최종비용함수는다음과같다. Cost α Target,,, (6) 여기서 Target 은차량의목표위치 ( 와후보궤적의마지 막노드 ( 와의오차와관련한비용이다. Obstacle은장애물과후보궤적간의공차가높을수록가중치를높게설정한다. 또한 Velocity 는속도와관련한비용함수로목표속도와가까울수록높은가중치를갖도록설정하였으며, 추가적으로영상정보지연시간 ( 이늘어날수록감속에대한가중치가높아지도록설계되었다. 이방법을통해조작자의간헐적인목표지점에대한정보만으로도지연상황에발생된돌발장애물을회피할수있고, 통신지연이지속될경우별도의조작자입력없이스스로주행속도를줄여안전성을높일수있다. V. 실험결과및분석이장에서는앞서제안한시간지연정보를고려한궤적에대한유용성과 Supervisory Dynamic Window Approach 방법에대해시뮬레이션과실험에대한결과를정리한다. 첫번째시뮬레이션은조작자에게제공되는이미지의지연으로인해원하는목표위치에정차하고자할때, 발생되는오차를분석하기위해다음과같이수행되었다. 먼저차량의초기위치와차량의목표위치를선정하고, 초기위치에서차량을출발시켜일정한주기로목표위치에수렴하기위한조향각을계산하도록하였다. 첫번째실험은통신지연으로이미지가 1Hz로들어오는경우로설정하였고, 이미지의지연시간을모사하기위해, 조향각을계산하는시점에서의수신지연으로인한오차를적용하였다. 또한차량모델과실제차량의모델에대한오차를가정하기위해시뮬레이션모델에가우시안노이즈를추가적으로반영하여계산하였다. 두번째실험은 3.2절에서제안된방법을시뮬레이션한것으로, 이미지수신주기와영상지연에대한조건은동일하다. 단, 조작자는제안된궤적모델을적용하여목표조향각을계산하도록하였다. 수신정보는 1Hz마다들어오지만예측된궤적정보를바탕으로첫번째실험보다는빠른 5Hz 주기로조작자입력을넣어주었다. 마지막실험은 5Hz로영상정보를지연없이받는경우의결과를시뮬레이션한것으로제안된방법과지연없는상황에서의거리오차를비교하기위한실험하였다. 시뮬레이션결과의평균오차는각각 1.5752m,.6435m,.4377m로나타났으며, 그림 7은본실험에대한결과그래프이다. 본시뮬레이션결과를통해 DRC 두번째미션과같은원하는구역에정확한주차를위해서는본논문에서제안된궤적생성방법이유용함을알수있었다. 두번째시뮬레이션은 SDWA 방법에대한검증을위해수행되었다. 그림 8에서차량의목표지점 ( 분홍색점 ) 이통신지연등의문제로간헐적으로업데이트될경우에대해수행
91 신세호, 김민성, 안준우, 김상현, 박재흥 볼수있었다. SDWA 를적용한실제차량실험결과는다음과같다. 조작자의명령은평균 1.294초에한번씩업데이트되었으며, 차량주행위치를실측하기위해 64채널 Velodyne 센서를통한 SLAM 알고리즘을이용하였다 [22]. 조작자의주행입력은장애물회피를고려하지않고, 이미지상에보이는도로의중앙을목표입력으로설정하였다. 본실험결과는그림 9와같다. 상단그림은 SLAM을통해측정된차량의주행궤적과장애물정보이다. 하단은사용자가장애물을고려하지않고내린주행목표지점을주행궤적과함께표시하였다. SDWA 는주행궤적에장애물이발생하더라도조작자가이전에내렸던주행입력을고려하여회피를위한주행제어를성공적으로수행하였다. 그림 8. SDWA 를시뮬레이션결과. Fig. 8. Simulation Result of SDWA method. 그림 9. SDWA 기반의원격주행실험결과. Fig. 9. Experimental Result of SDWA method. 한결과이다. 본실험상황은실시간으로장애물의위치를사용자가인지할수없을경우, 충돌이발생할수있는구간을모사하였다. 테스트를위해주행차량의속도는 1km/h로설정하고 1초의지연이미지가수신되도록하였다. 이와같은환경에서 SDWA 를통해 1Hz와 5Hz로간헐적인주행목표명령을내리는경우모두장애물을안정적으로회피함을 VI. 결론통신지연이발생되는재난현장에서휴머노이드로봇을원격으로제어하여차량을주행시키기위한인터페이스및제어전략에대해다루었다. Inverse Perspective Mapping 기반영상지연을고려한주행궤적생성방법은 DRC Finals 215 에실제적용되어주행미션을성공적으로수행할수있었다. Supervisory Dynamic Window Approach는사용자가근접장애 물이나돌발장애물을인지할수없을때로봇의인지정보와이전사용자의목표지점을고려하여안전한회피주행을할수있음을실제실험을통해보였다. 후속연구로는 3차원지형정보제공방법및주행궤적생성방법등에대한것이필요하다. REFERENCES [1] DRC, http://theroboticschallenge.org, 215. [2] S. Kim, B. Park, and J. Park, DRC Finals 215 - Result analysis of the participating teams, Korea Robotics Society Review, vol. 12, no. 4, Oct. 215. [3] I. Kumagai, R. Terasawa, S. Noda, R. Ueda, S. Nozawa, Y. Kakiuchi, and M. Inaba, Achievement of recognition guided teleoperation driving system for humanoid robots with vehicle path estimation, Proc. of IEEE-RAS International Conference on Humanoid Robots, Seoul, Korea, Nov. 215. [4] C. Rasmussen, K. Sohn, Q. Wang, and P. Oh, Perception and control strategies for driving utility vehicles with a humanoid robot, Proc. of IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, pp. 973-98, Chicago, USA, Sep. 214. [5] D. A. de Lima and A. C. Victorino, A hybrid controller for vision-based navigation of autonomous vehicles in urban environments, IEEE Intelligent Transportation Systems Society, pp. 231-2323, Mar. 216. [6] S. Kim, M. Kim, J. Lee, S. Hwang, J. Chae, B. Park, H. Cho, J. Sim, J. Jung, H. Lee, S. Shin, M. Kim, N. Kwak, Y. Lee, S. Lee, M. Lee, S. Yi, K. K. C. Chang, and J. Park, Approach of team SNU to the DARPA robotics challenge finals 215, Proc. of IEEE-RAS International Conference on Humanoid Robots, Seoul, Korea, Nov. 215. [7] H. Jeong, J. Oh, M. Kim, K. Joo, I. Kweon, and J. H. Oh, Control strategies for a humanoid robot to drive and then egress a utility vehicle for remote approach, IEEE-RAS International
휴머노이드로봇의안전한차량주행전략및원격제어인터페이스개발 911 Conference on Humanoid Robots, Seoul, Korea, Nov. 215. [8] S. Tuohy, D. O Cualain, E. Jones, and M. Glavin, Distance determination for an automobile environment using inverse perspective mapping in OpenCV, Proceeding of Irish Signals and Systems Conference, 21. [9] C. Lin and M. S. Wang, Topview transform model for the vehicle parking assistance system, Computer Symposium, pp. 36-311, Dec. 21. [1] J. Ahn, S. Shin, and J. Park, Development of localization using artificial and natural landmark for indoor mobile robots, Journal of Korea Robotics Society, 216. (accepted article) [11] R. Altendorfer, Observable dynamics and coordinate systems for automotive target tracking, IEEE Intelligent Vehicles Symposium, Xian, China, pp. 741-746, Jun. 29. [12] A. Polychronopoulos, M. Tsogas, A. J. Amditis, and L. Andreone, Sensor fusion for predicting vehicles' path for collision avoidance systems, IEEE Transactions on Intelligent Transportation Systems, vol. 8, no. 3, pp. 549-562, 27. [13] R. Schubert, E. Richter, and G. Wanielik, Comparison and evaluation of advanced motion models for vehicle tracking, Proc. of International Conference on Information Fusion, Cologne, Germany, pp. 1-6, Jun. 28. [14] M. Song and D. Shin, A study on vehicle ego-motion estimation by optimizing a vehicle platform, Journal of Institute of Control, Robotics and Systems (in Korean), vol. 21, no. 9, pp. 818-826, 215. [15] S. Kim, M. Kim, J. Lee, S. Hwang, J. Chae, B. Park, H. Cho, J. Sim, J. Jung, H. Lee, S. Shin, M. Kim, W. Choi, Y. Lee, S. Park, J. Oh, Y. Lee, S. Lee, M. Lee, S. Yi, K. K. C. Chang, N. Kwak, and J. Park., Team SNU s control strategies to enhancing robot s capability: Lessons from the DARPA Robotics Challenge Finals 215, Journal of Field Robotics, 216. (accepted article) [16] O. Brock and O. Khatib, High-speed navigation using the global dynamic window approach, IEEE International Conference on Robotics and Automation, Detroit, USA, May 1999. [17] D. A. De Lima and G. A. S. Pereira, Navigation of an autonomous car using vector fields and the dynamic window approach., Journal of Control, Automation and Electrical Systems, vol. 24, no. 1-2, pp. 16-116, 213. [18] D. Kim, C. Kim, J. Lee, and C. Han, Development of sensorbased motion planning method for an autonomous navigation of robotic vehicles, Journal of Institute of Control, Robotics and Systems (in Korean), vol. 17, no. 6, pp. 513-52, 211. [19] S. Lee, C. Chun, T. Kwon, and S. Kang, Bezier curve-based path planning for robust waypoint navigation of unmanned ground vehicle, Journal of Institute of Control, Robotics and Systems, vol. 17, no. 5, pp. 429-435, 211. [2] S. Shin, M. Kim, and J. Park, Collision-free motion planning based on elastic band theory for autonomous driving, Proc. of the Korean Society of Automotive Engineers Annual Conference, KINTEX, Korea, Nov. 211. [21] J. Kim, K. Lee, and J. Ryu, Shared vehicle teleoperation using a virtual driving interface, Journal of Institute of Control, Robotics and Systems (in Korean), vol. 21, no. 3, pp. 243-249, 215. [22] J. Zhang and S. Sanjiv, LOAM: Lidar odometry and mapping in real-time, Proc. of Robotics: Science and Systems Conference, Berkeley, USA, Jul. 214. 신세호 29년숭실대학교생명정보학과 ( 이학사 ). 21년 ~ 현재서울대학교융합과학기술대학원박사과정. 관심분야는 Autonomous Vehicle Motion Planning & Control, Parallel Algorithm for System Dynamics 김민성 21년중앙대학교전기전자공학부 ( 공학사 ). 211 년 ~ 현재서울대학교융합과학기술대학원박사과정. 관심분야는 Autonomous Vehicle Motion Control. 안준우 216년광운대학교로봇학부정보제어공학 ( 공학사 ). 216년 ~ 현재서울대학교융합과학기술대학원석사과정. 관심분야는 Mobile Robot Motion Planning & Control. 김상현 212년서울대학교기계항공공학부 ( 공학사 ). 212년 ~ 현재서울대학교융합과학기술대학원박사과정. 관심분야는 Human-robot Imitation, Robot Manipulation, Grasping Optimization, Machine Learning. 박재흥 1995년서울대학교항공우주공학과 ( 공학사 ). 1999년서울대학교항공우주공학과 ( 공학석사 ). 26년 Stanford University Aero/Astro( 공학박사 ). 29년 ~ 현재서울대학교융합과학기술대학원부교수. 관심분야는 Robot-environment Interaction, Contact Force Control, Multi Contact Control, Whole-body Dynamic Control, Biomechanics.