Korean Journal of Remote Sensing, Vol.30, No.1, 2014, pp.149~160 http://dx.doi.org/10.7780/kjrs.2014.30.1.12 ISSN 1225-6161 ( Print ) ISSN 2287-9307 (Online) 근접수치사진측량을 위한 스마트폰 카메라 검보정 윤명현* 유 연** 최철웅*** 박진우*** *한국해양조사협회, **부경대학교 공간정보시스템공학과, ***부경대학교 공간정보연구소 Application of Smartphone Camera Calibration for Close-Range Digital Photogrammetry MyungHyun Yun*, Yeon Yu**, Chuluong Choi*** and Jinwoo Park*** *Korea Oceanographic and Hydrographic Association, **Spatial Information Institute, Pukyoung National University ***Department of Spatial Information Engineering, Pukyoung National University Abstract : Recently studies on application development and utilization using sensors and devices embedded in smartphones have flourished at home and abroad. This study aimed to analyze the accuracy of the images of smartphone to determine three-dimension position of close objects prior to the development of photogrammetric system applying smartphone and evaluate the feasibility to use. First of all, camera calibration was conducted on autofocus and infinite focus. Regarding camera calibration distortion model with balance system and unbalance system was used for the decision of lens distortion coefficient, the results of calibration on 16 types of projects showed that all cases were in RMS error by less than 1 mm from bundle adjustment. Also in terms of autofocus and infinite focus on S and S2 model, the pattern of distorted curve was almost the same, so it could be judged that change in distortion pattern according to focus mode is very little. The result comparison according to autofocus and infinite focus and the result comparison according to a software used for multi-image processing showed that all cases were in standard deviation less than ±3 mm. It is judged that there is little result difference between focus mode and determination of three-dimension position by distortion model. Lastly the checkpoint performance by total station was fixed as most probable value and the checkpoint performance determined by each project was fixed as observed value to calculate statistics on residual of individual methods. The result showed that all projects had relatively large errors in the direction of Y, the direction of object distance compared to the direction of X and Z. Like above, in terms of accuracy for determination of three-dimension position for a close object, the feasibility to use smartphone camera would be enough. Key Words : Smartphone, Accuracy, Distortion model, Focus modes, Check point 요약 : 최근 스마트폰에 내장된 센서 및 디바이스를 이용한 응용 개발 및 활용 방안에 대한 연구가 국내외 접수일(2014년 1월 27일), 수정일(1차 : 2014년 2월 19일), 게재확정일(2014년 2월 20일). 교신저자: 박진우(swat018@gmail.com) This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons. org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited 149
Korean Journal of Remote Sensing, Vol.30, No.1, 2014 에서 활발히 진행되고 있다. 본 연구의 목적은 스마트폰을 활용한 사진측량시스템 개발에 앞서 근접한 대상 물의 3차원 위치결정에서의 스마트폰 영상의 정확도를 분석하고, 그 활용 가능성을 평가하는 것이다. 먼저, 자동 초점과 무한대 초점에서 카메라 검정이 수행되었다. 카메라 검정에서 렌즈 왜곡 계수의 결정은 balance 방식과 unbalance 방식의 왜곡 모델을 이용하였고, 16가지 프로젝트로 구분하여 검정한 결과, 모든 경우에 1 mm 이내의 번들조정 RMS 오차를 나타냈다. 또한 S와 S2 모델에 대한 자동 및 무한대 초점에서 왜곡 곡 선의 패턴이 거의 유사하게 나타나 초점 모드에 따른 왜곡 패턴의 변화는 극히 미소한 것으로 판단된다. 자 동과 무한대 초점에 따른 결과 비교와 다중영상 처리에 사용된 소프트웨어에 따른 결과 비교에서 모든 경우 에 ±3 mm 이내의 표준편차를 나타내어 초점 모드와 왜곡 모델에 따른 3차원 위치결정에서의 결과 차이는 거의 없는 것으로 판단된다. 끝으로 토탈스테이션에 의한 검사점 성과를 최확값으로 하고 각 프로젝트별로 결정된 검사점 성과를 관측값으로 하여 각 방법별 잔차에 대한 통계치를 계산한 결과, 모든 프로젝트에서 X, Z방향에 비해 촬영거리방향인 Y방향으로 비교적 큰 오차가 발생했다. 이상과 같이 근접 대상물의 3차원 위 치결정에 있어 정확도 측면에서 스마트폰 카메라의 활용이 가능할 것으로 기대된다. 1. 서 론 최근 컴퓨터 및 정보통신 기술의 발전에 발맞추어 사 용자의 편리성을 고려하여 이를 구현할 수 있는 기술이 등장하고 있고, 이를 대표하는 것이 스마트폰 기술이다. 스마트폰은 PC와 같은 기능과 더불어 고급 기능을 제공 하는 휴대전화이다. 별도의 OS가 탑재된 이동통신 단말 기를 의미하며, 이는 단순히 기술적인 부분뿐만 아니라, 이를 수용하는 주체의 생활 패턴과 지각 방식에도 영향 을 미치고 있다. 스마트폰의 보급이 본격적으로 활성화 되면서, 사용자에게 더욱 편리한 인터페이스를 제공하 기 위해 다양한 센서와 디바이스를 경쟁적으로 스마트 폰에 내장시키고 있다. 고해상도 카메라, Assisted GPS, 가속도계, 자기 계측 센서, 그리고 자이로스코프 등과 같 이 스마트폰에 내장된 센서 및 디바이스를 이용한 응용 개발 및 활용 방안에 대한 연구가 국내외에서 활발히 진 행되고 있다. 스마트폰 기술을 응용한 증강현실(Augmented Reality, AR) 기 반 의 지 리 정 보 서 비 스 가 제 공 되 고 있 고 (KIWIPLE, 2010), 스마트폰에 내장된 GPS, 3축 가속도 센서, 네트워크 디바이스를 이용하여 각 센서에 나타나 는 특징을 분석하고, 사용자의 이동 상태를 효율적으로 판단할 수 있는 알고리즘이 제안되었다(Ha and Park, 2011). 또한 스마트폰을 이용한 도로 교통 모니터링을 위한 모바일 밀레니엄 프로젝트가 버클리 대학의 연구 진에 의해 수행되었다(Mobile Millennium Project, 2009). 이 프로젝트에서 3축 가속도 센서 정보의 활용 방법과 카메라를 이용한 이미지 분석 방법 등 교통 분석을 위한 다양한 방법이 제시되었고, 이 프로젝트를 통해 구현된 시스템은 현재 상용화되어 서비스되고 있다. 또한 스마 트폰에 내장된 가속도계를 이용한 지진 감지 어플리케 이션 개발 및 모의 지진실험을 통한 스마트폰에 내장된 가속도계의 성능을 분석에 대한 연구가 수행되고 있다 (Takeuchi and Kennelly, 2010; CITRIS, 2011). 이상과 같이 국내외에서 스마트폰을 활용한 대부분 의 연구는 내장된 각각의 센서 활용에 국한되었고, 스마 트폰에서 제공되는 고해상도 영상을 사진측량에 활용 한 연구는 미비한 실정이다. 비측량용으로 제작된 스마 트폰 카메라의 사진측량에의 활용을 위해서는 먼저 렌 즈에 포함된 왜곡을 보정하기 위한 카메라 검정이 선행 되어야하며, 이것에 관련해 지금까지 많은 연구가 이루 어졌다. Yoo et al.(2003)과 Fraser and Al-Ajlouni(2006)는 줌렌즈 CCD 카메라의 기하학적 검정을 수행하였고, Habib and Morgan(2005), Jeong(2009)는 저가의 디지털 카메라와 컴팩트 디지털 카메라 검정을 수행하였다. 또 한 Akca and Gruen(2009)는 모바일폰에 내장된 카메라 를 검정하였다. Oh and Lee(2010)는 모바일 매핑시스템 으로 취득된 영상의 광속조정법을 제안하였고, Cho and Hwang(2003)의 연구에서는 차량시스템에 탑재된 모바 일 카메라의 3차원 위치정밀도를 분석하였다. 스마트폰에 내장된 카메라는 그 성능 및 기하학적 안 정성이 계속적으로 향상되고 있으며, 최근 고가의 디지 털 카메라에서 제공하는 영상에 상당하는 고해상도 영 상을 지원하고 있다. 특히 손쉽게 고해상도의 영상을 획 150
Application of Smartphone Camera Calibration for Close-Range Digital Photogrammetry 내부표정요소로 하여 처리된 최종 검사점 성과의 비교 에서 자동과 무한대 초점에 따른 결과 비교와 다중영상 처리에 사용된 소프트웨어에 따른 결과 비교가 이루어 졌다. 끝으로 토탈스테이션에 의한 검사점 성과를 최확 값으로 하고 각 프로젝트별로 결정된 검사점 성과를 관 측값으로 하여 각 방법별 잔차를 계산하고, 각 방법별 정 확도를 분석하였다. 본 연구의 흐름은 Fig. 1과 같다. 2. 카메라 검정을 위한 왜곡 모델 Fig. 1. Flow Chart. 득할 수 있을 뿐만 아니라, 어플리케이션 개발에 의한 자 동 촬영 시스템 구현이 가능하다. 또한 블루투스와 3G 네트워크 환경에서 실시간으로 다른 기기와의 정보 교 환및자료 전송이 가능함으로 UAVs(Unmanned Aerial Vehicles)에 의한 사진측량시스템 개발에도 크게 기여할 것으로 기대된다. 본 연구는 스마트폰을 활용한 사진측량시스템 개발 에 앞서 근접한 대상물의 3차원 위치결정에서의 스마 트폰 영상의 정확도를 분석하고, 그 활용 가능성을 평 가하는데 그 목적을 둔다. 이를 위해 삼성 갤럭시 S 모 델 2대와 S2 모델 2대가 대상 스마트폰으로 선정하였 고, 스마트폰 영상의 정확도 평가에 앞서 스마트폰 카 메라의 검정을 수행하였다. 카메라 검정은 자동과 무한 대 초점에서 모두 이루어졌고, 카메라 검정과 다중영상 표정은 근접 사진측량에 널리 이용되고 있는 CDW와 Photomodeler에 의해 처리되었다. 이렇게 총 16가지 프 로젝트에 대한 카메라 검정의 번들조정에 따른 RMS 오 차를 분석하였고, 각 프로젝트별로 결정된 왜곡 계수를 수치사진측량에서 내부표정 요소는 초점거리, 주점 좌표, 그리고 투영 기하학을 이용한 다양한 편차의 보정 으로 구성된다. 이러한 투영 기하학은 투영 중심, 대상 점, 그리고 이에 상응하는 영상점이 일직선을 이룬다는 가정을 바탕으로 하는 공선조건에 의해 수립된다 (Kraus, 1993). 영상에서 왜곡은 공선으로부터의 편차를 의미하며, 이러한 편차에 의해 방사 왜곡, 비대칭 왜곡, 아핀(affine) 변형 등이 발생한다(Fraser, 1997). 렌즈 왜곡 의 모든 원인은 명백한 수학적 모델에 의해 묘사되고, 이 러한 수학적 모델의 계수를 일반적으로 왜곡 변수라 일 컫는다(Pullivelli, 2005). 방사 왜곡은 광선이 렌즈의 투영 중심을 지날 때그 경로가 바뀔 때 발생한다. 이것은 렌즈 제작에서의 결함 등에 기인하고, 주점에 대해 방사 방향에 따라 대칭으로 일어난다. 관측된 점의 방사 왜곡에 대한 보정은 다항식 에 의해 모델링되며, 이러한 방사 왜곡은 주로 balance와 unbalance 방식에 의해 보정되고 있다. 두 가지 방식은 수 학적으로 같은 의미를 가지며, 계산 결과에 있어서 차이 는 발생하지 않는다. 전형적인 balance 방식에서 방사 왜 곡량 dr은 Equation (1) 및 (2)에 의해 계산된다. 여기서, A0, A1, A2, A3는 balance 방식에서 방사 왜곡 계수, K1, K2, K3는 unbalance 방식에서 방사 왜곡 계수를 의미하고, r 은 방사 거리를 나타낸다. dr = A0 + A1r 2 + A2r 4 + A3r 6 (1) dr = K1r 2 + K2r 4 + K3r 6 (2) unbalance 방식의 balance 방식으로의 변환은 방사 왜 곡량이 zero가될때의 임의의 반경 r0을 이용한 Equation 151
Korean Journal of Remote Sensing, Vol.30, No.1, 2014 (3)에 의해 이루어진다. A0 = _ (K1r 2 + 0 K2r4 + 0 K3r6) 0 s = (1 _ A0) A1 = K1 s (3) A2 = K2 s A3 = K3 s 비대칭 왜곡은 광축을 따라 카메라 렌즈 요소의 중심 불일치에 의해 기인된다. 정확히 정렬되지 않은 렌즈 성 분은 방사 및 비대칭 왜곡을 초래하고, 이것은 Equation (4)에 의해 모델링될 수 있다 (Brown, 1966). dxd = P1(r 2 + 2x 2 ) + 2p2xy (4) dyd = P2(r 2 + 2y 2 ) + 2p1xy 여기서, P1, P2는 비대칭 왜곡에 관련한 계수들이다. 아핀 변형은 주로 x 및 y방향을 따라 비균일한 축척으로 부터 일어나는 변형으로 초점면에서 발생하며, 때때로 x 및 y축 간의 비직교성에 의해 발생될 수도 있다. 이것 은 영상 픽셀의 비정방형과 CCD 배열에서 행과 열의 비 직교성에 의해 기인되며, 정방형으로 고려한 경우 축척 차이의 원인이 될수있다. 아핀 변형에 대한 보정량 dxad 와 dyad는 Equation (5)와 같다. dxad = _ C1x + C2y (5) dyad = _ C1y 여기서, C1은 x 및 y축을 따른 축척 차이의 절반에 해당하고, C2는 비직교성분에 관련한 각(angle)을 의미 한다. (a) Galaxy S (b) Galaxy S2 Fig. 2. Smartphone cameras used in this study. 3. 스마트폰 카메라를 이용한 3차원 위치 결정 스마트폰은 PDA 등에서 제공되던 개인 정보 관리 기 능과 휴대폰의 기능을 결합한 휴대용 기기를 통칭하며, 고해상도 카메라, GPS, 가속도계, 그리고 자기 계측 센 서와 같이 측량에 직접 이용할 수 있는 센서들이 탑재되 어 있다. 최근 스마트폰 보급이 활성화되기 시작하면서 스마트폰의 자체 내장된 센서를 이용한 연구가 활발히 진행 중에 있다. 본 연구는 스마트폰에 내장된 센서 중 고해상도 영상 을 지원하는 카메라를 이용하여 근접한 대상물을 촬영 하고, 3차원 위치정보를 획득하기 위해 이루어졌다. 이 를 위해 최근 널리 보급되고 있는 스마트폰 중 Fig. 2과 같이 안드로이드 OS 2.3(Gingerbread) 기반의 삼성 갤럭 시 S 모델 2대와 갤럭시 S2 모델 2대를 이용하였다. 갤럭시 S는 Table 1과 같이 full touch bar 형태의 스마 트폰으로, 1 GHz processor, 512 MB 내부 RAM, 16 GB 내 부 저장 메모리, WCDMA, GSM network technology와 Wi-Fi 를 지원한다. 그리고 500만 화소의 영상을 지원 하는 고해상도 카메라, A-GPS(Assisted GPS), 가속도 계(accelermeter), 자기계(magnetometer), 그리고 근접 (proximity) 센서를 내장하고 있다. 갤럭시 S2는 갤럭시 S 와 달리 800만 화소의 영상을 지원하며, S 모델에 탑재 된 센서에 자이로스코프 센서가 추가적으로 탑재되어 있다. 또한 갤럭시 S는 1/5 S5K5CAG CMOS 센서를 S2 는 1/3.2 S5K3H1GX CMOS 센서를 각각 내장하고 있 고, 렌즈의 초점거리는 제작 시 3.79 mm와 3.97 mm이 며, 픽셀 크기는 모두 1.4 μm이다. 일반적으로 스마트폰에 내장된 렌즈는 측량의 목적 으로 설계되어 있지 않아 측량용 카메라에 비해 렌즈 왜 곡이 크기 때문에 스마트폰 영상을 이용한 위치 결정에 앞서 렌즈에 포함된 왜곡을 보정해야 하며, 이러한 일 련의 과정을 카메라 검정이라 일컫는다. 본 연구에서도 스마트폰 영상에 의한 3차원 위치결정에 앞서 4 대의 스마트폰 카메라의 검정을 선행하였다. 안드로이드 OS 에 의한 스마트폰은 software development kit(sdk) 내의 카메라 초점 모드에 의해 자동 초점(autofocus)과 무한대 (infinity) 초점에서 촬영이 가능함으로 모든 모델에 대해 서 자동 및 무한대 초점 환경에서 촬영되었다. 152
Application of Smartphone Camera Calibration for Close-Range Digital Photogrammetry Table 1. Specification of smartphone camera Galaxy S Galaxy S2 Dimensions 122.4 64.2 9.9 mm 125.3 66.1 8.5 mm Operating System Android OS v2.3 Gingerbread Android OS v2.3 Gingerbread Camera 2592 1944 pixels Auto focus 3264 2448 pixels Auto focus Memory Internal: 2 GB, 14 GB user available storage External: Up to 32 GB microsd Internal: 16 GB, 32 GB user available storage External: Up to 32 GB microsd Processor 1 GHz ARM Cortex A8 processor 1.2 GHz ARM Cortex A9 processor Battery Standard Li-Ion 1500 mah battery Standard Li-Ion 1650 mah battery Table 2. The project name used in this study Smart phone Software Focus Mode Project Name Auto S_A_A_C CDW Galaxy S Infinity S_A_I_C Type A Auto S_A_A_P Photomodeler Infinity S_A_I_P Auto S_B_A_C CDW Galaxy S Infinity S_B_I_C Type B Auto S_B_A_P Photomodeler Infinity S_B_I_P Auto S2_A_A_C CDW Galaxy S2 Infinity S2_A_I_C Type A Auto S2_A_A_P Photomodeler Infinity S2_A_I_P Auto S2_B_A_C CDW Galaxy S2 Infinity S2_B_I_C Type B Auto S2_B_A_P Photomodeler Infinity S2_B_I_P Fig. 3. The measurement of control and check points. Table 2와 같이 정의되었다. 4. 결과 및 고찰 다음으로 카메라 검정을 마친 스마트폰을 이용하여 각 경우별 위치 정확도를 분석하였다. 이를 위해 Fig. 3와 같이 원형 타깃 21개, 코드(coded) 타깃 19개를 설치하였 다. 코드 타깃 중 3개는 대상 좌표계로의 변환을 위한 기 준점, 12개는 각 경우의 정확도 평가를 위한 검사점으로 활용되었다. 각 코드 타깃의 중심 위치는 Topcon사의 모 델명 GPT-7001i 토탈스테이션(±2 mm+2 ppm)에 의해 결정되었다. 앞서 언급한 카메라 검정 및 대상물 3차원 좌표의 결정 은 최근 근접 수치사진측량 분야에서 널리 이용되고 있는 RolleiMetric에 서 개 발 된 Close-range Digital Workstation (CDW)와 EOS Systems에서 개발된 Photomodeler가 사용 되었다. 따라서 스마트폰 4대, 초점모드 2개, 그리고 영 상처리를 위한 소프트웨어 2개에 의해 총 16가지 경우 에 대한 분석이 이루어졌고, 각 경우에 대한 프로젝트는 1) 스마트폰 카메라 검정 스마트폰에 의해 획득된 영상을 이용한 카메라 검정 은 Fig. 4과 같이 CDW와 Photomodeler에 의해 이루어졌 다. 카메라 검정에 있어 CDW는 전형적인 balance 방식, Photomodeler는 unbalance 방식을 이용한다. 카메라 검정 에 의해 결정된 각 프로젝트별 내부표정요소는 Table 3 과 같고, unbalance 방식을 이용하는 Photomodeler의 경 우 영상 축의 비직교성에 대한 왜곡은 그 양이 매우 미소 하므로 일반적으로 고려하지 않는다. Table 4는 각프로젝트별 카메라 검정의 번들조정 RMS 오차를 나타낸 것이다. 번들조정에서 S_B_A_P의 경우 가장 양호한 결과를 나타냈고, S2_A_A_C에서 가 장큰RMS 오차를 나타냈다. 그러나 모든 경우에 1 mm 이내의 RMS 오차를 나타냈고, 각 방향별 RMS 오차의 평균은 0.22 mm, 0.20 mm, 0.29 mm로 나타났다. Fig. 5는 153
Korean Journal of Remote Sensing, Vol.30, No.1, 2014 (a) CDW (b) Photomodeler Fig. 4. The Image of CDW and Photomodeler for camera calibration. Table 3. The interior orientation parameters after bundle adjustment CDW S_A_A_C S_A_I_C S_B_A_C S_B_I_C S2_A_A_C S2_A_I_C S2_B_A_C S2_B_I_C ck 3.8070-3.8513 3.7952 3.8441 4.0574 4.0706 4.0227 4.0548 XH -0.0645-0.0614-0.0012-0.0005-0.1099-0.1069-0.0664-0.0710 YH 0.0149 0.0159-0.1019-0.1036 0.0248 0.0188-0.0119-0.0123 A1 8.751e -3 7.434e -3 8.199e -3 6.174e -3 7.125e -3 6.371e -3 6.115e -3 5.325e -3 A2-4.162e -3-3.795e -3-3.906e -3-3.005e -3-2.216e -3-1.958e -3-2.061e -3-1.762e -3 A3 4.690e -4 4.133e -4 4.739e -4 2.959e -4 1.884e -4 1.499e -4 1.765e -4 1.367e -4 B1-3.046e -4-2.915e -4-1.148e -4 2.011e -4 2.213e -4 3.208e -4-1.640e -5 1.798e -5 B2 3.395e -4 3.027e -4-4.625e -5 2.093e -5-2.254e -4-3.658e -4-2.381e -4-1.452e -4 C1-4.181e -4 1.111e -4-3.646e -4 9.685e -5 2.260e -4 6.325e -4 1.663e -4-3.025e -4 C2 1.029e -4-1.939e -6 4.545e -4 2.822e -4 1.154e -4 5.645e -4 4.381e -4-6.453e -5 Photomodeler S_A_A_P S_A_I_P S_B_A_P S_B_I_P S2_A_A_P S2_A_I_P S2_B_A_P S2_B_I_P ck 3.831 3.800 3.7833 3.7617 4.0590 3.9716 3.9850 3.9681 XH -0.0605-0.0496-0.0015 0.0131-0.1135-0.1917-0.1113-0.0967 YH 0.0164 0.0187-0.0897-0.1049 0.0272 0.0860 0.0297 0.0309 K1-3.178e -3-3.123e -3-4.468e -3-3.233e -3-2.158e -3-2.975e -3-3.036e -3-2.360e -3 K2 9.943e -4 1.085e -3 1.550e -3 1.384e -3 3.818e -4 5.283e -4 5.125e -4 4.856e -4 K3 - - - - -1.848e -4 - - - P1 2.335e -4-2.273e -4 2.200e -5-4.650e -4-1.631e -4-6.656e -6-1.903e -4-3.193e -4 P2-2.267e -4-5.245e -4-2.420e -4-3.240e -5 5.796e -5 - - - Table 4. Directional RMSEs calculated from bundle adjustment Project RMSE RMSE Project X (m) Y (m) Z (m) X (m) Y (m) Z (m) S_A_A_C 0.00020 0.00015 0.00025 S2_A_A_C 0.00051 0.00043 0.00076 S_A_I_C 0.00027 0.00020 0.00031 S2_A_I_C 0.00033 0.00026 0.00044 S_A_A_P 0.00013 0.00013 0.00017 S2_A_A_P 0.00017 0.00018 0.00024 S_A_I_P 0.00015 0.00015 0.00019 S2_A_I_P 0.00022 0.00022 0.00029 S_B_A_C 0.00017 0.00013 0.00021 S2_B_A_C 0.00037 0.00032 0.00056 S_B_I_C 0.00028 0.00040 0.00022 S2_B_I_C 0.00027 0.00020 0.00034 S_B_A_P 0.00009 0.00009 0.00011 S2_B_A_P 0.00013 0.00013 0.00020 S_B_I_P 0.00013 0.00013 0.00015 S2_B_I_P 0.00014 0.00014 0.00022 154
Application of Smartphone Camera Calibration for Close-Range Digital Photogrammetry (a) balance Method (Auto focus) (b) unbalance Method (Auto focus) (c) balance Method (Infinity) (d) unbalance Method (Infinity) Fig. 5. Radial Lens distortion curve for the cameras used in this study. 각 프로젝트에 대한 카메라 검정 결과를 바탕으로 방사 왜곡 곡선을 나타낸 것이다. Fig. 5(a)와 5(b)는 자동초점 모드에서의 CDW와 Photomodeler에 의해 결정된 방사 왜곡 계수를 적용한 경우이며, Fig. 5(c)와 5(d)는 무한대 초점 모드인 경우의 방사 왜곡 계수를 적용한 왜곡 곡선 이다. 모든 경우에서 반경에 따른 방사 왜곡량이 25 μm 이내로 나타났다. 또한 Fig. 5(a)와 5(b), Fig. 5(c)와 5(d)에 서 왜곡 곡선의 패턴 차이는 balance와 unbalance 방식에 따른 차이이며, Fig. 5(a)와 5(c), Fig. 5(b)와 5(d)를 비교해 보면 S와 S2 모델에 대한 자동 및 무한대 초점에서 왜곡 곡선의 패턴이 거의 유사함으로 초점 모드에 따른 왜곡 패턴의 변화는 극히 미소한 것으로 판단된다. 2) 3차원 위치정확도 분석 이상과 같이 balance와 unbalance 방식, 자동 및 무한대 초점에서 계산된 각 프로젝트별 왜곡 계수를 내부표정 요소로 하여 각각의 방법에 따른 12개 검사점에 대한 3 차원 위치를 결정하고, 이를 토탈스테이션에 의해 결정 된 좌표와 비교함으로써 그 정확도를 분석하였다. Fig. 6 는 CDW와 Photomodeler에 의해 계산된 왜곡 계수를 입 력값으로 하여 다중영상을 표정하는 모습이고, Table 5 는 12개의 검사점에 대한 토탈스테이션 성과와 각 프로 젝트에서 결정된 검사점의 성과를 나타낸다. 자동 초점과 무한대 초점에 따른 검사점 결과를 비교 해보면 Table 6과 같이 각 방향별 평균값과 표준편차는 - 0.001±0.002 m, 0.000±0.003 m, 0.002±0.001 m로 나타 났고, 다중영상 처리에 사용된 소프트웨어에 따른 결과 차이는 각 방향별로 -0.001±0.003 m, 0.000±0.003 m, - 0.001±0.003 m로 나타나 초점 모드 및 왜곡 모델에 따른 결과값의 변화는 크지 않는 것으로 판단된다. Table 5에서의 토탈스테이션에 의한 검사점 성과를 최확값으로 하고 각 프로젝트별로 결정된 검사점 성과 를 관측값으로 하여 각 방법별 잔차에 대한 통계치를 계 산한 결과는 Table 7과 같다. 모든 프로젝트에 있어서 표 155
Korean Journal of Remote Sensing, Vol.30, No.1, 2014 (a) CDW (b) Photomodeler Fig. 6. Multi image orientation using CDW and Photomodeler. Table 5. The result of determining check points (Unit : m) No Total Station S_A_A_C S_A_I_C S_A_A_P S_A_I_P X Y Z X Y Z X Y Z X Y Z X Y Z 1 9.366 5.141 2.743 9.370 5.098 2.742 9.37 5.097 2.742 9.366 5.098 2.745 9.367 5.098 2.744 2 10.042 5.137 2.720 10.045 5.113 2.718 10.047 5.11 2.718 10.042 5.114 2.724 10.042 5.110 2.720 : : : : : 11 10.085 5.143 1.696 10.087 5.147 1.696 10.086 5.144 1.695 10.088 5.147 1.701 10.089 5.141 1.696 12 10.997 5.140 1.717 10.998 5.166 1.718 10.997 5.162 1.718 11.001 5.164 1.726 10.997 5.165 1.719 No Total Station S_B_A_C S_B_I_C S_B_A_P S_B_I_P X Y Z X Y Z X Y Z X Y Z X Y Z 1 9.366 5.141 2.743 9.368 5.099 2.740 9.371 5.097 2.739 9.366 5.097 2.743 9.367 5.098 2.743 2 10.042 5.137 2.720 10.043 5.114 2.716 10.047 5.111 2.715 10.040 5.112 2.719 10.044 5.112 2.721 : : : : : 11 10.085 5.143 1.696 10.085 5.146 1.696 10.088 5.146 1.696 10.082 5.145 1.694 10.087 5.146 1.698 12 10.997 5.140 1.717 10.997 5.164 1.718 10.998 5.163 1.718 10.992 5.163 1.715 10.997 5.164 1.721 No Total Station S2_A_A_C S2_A_I_C S2_A_A_P S2_A_I_P X Y Z X Y Z X Y Z X Y Z X Y Z 1 9.366 5.141 2.743 9.364 5.096 2.744 9.367 5.097 2.741 9.369 5.100 2.743 9.369 5.097 2.741 2 10.042 5.137 2.72 10.040 5.112 2.722 10.042 5.113 2.718 10.045 5.117 2.717 10.045 5.111 2.716 : : : : 11 10.085 5.143 1.696 10.084 5.141 1.696 10.084 5.143 1.696 10.090 5.144 1.695 10.085 5.142 1.693 12 10.997 5.140 1.717 10.999 5.160 1.718 10.996 5.162 1.718 11.001 5.164 1.716 10.998 5.159 1.712 No Total Station S2_B_A_C S2_B_I_C S2_B_A_P S2_B_I_P X Y Z X Y Z X Y Z X Y Z X Y Z 1 9.366 5.141 2.743 9.366 5.098 2.742 9.366 5.104 2.744 9.367 5.097 2.743 9.367 5.097 2.743 2 10.042 5.137 2.72 10.042 5.111 2.719 10.043 5.119 2.719 10.043 5.106 2.719 10.043 5.106 2.719 : : : : : 11 10.085 5.143 1.696 10.085 5.141 1.696 10.089 5.144 1.695 10.082 5.133 1.696 10.082 5.133 1.696 12 10.997 5.140 1.717 10.997 5.163 1.718 10.998 5.163 1.717 10.993 5.154 1.718 10.993 5.154 1.718 156
Application of Smartphone Camera Calibration for Close-Range Digital Photogrammetry Table 6. Comparison of check point result calculated by focus modes and used software (Unit : m) Autofocus and Infinity CDW and Photomodeler ΔX ΔY ΔZ ΔX ΔY ΔZ Max 0.005 0.011 0.010 0.007 0.013 0.008 Min -0.010-0.008-0.006-0.007-0.009-0.010 Mean -0.001 0.000 0.001 0.001 0.000-0.001 Std.Dev. ±0.002 ±0.003 ±0.002 ±0.003 ±0.003 ±0.003 Table 7. Residual Statistic of check points S_A_A_C S_A_I_C S_A_A_P S_A_I_P Project υx υy υz υx υy υz υx υy υz υx υy υz Max. -0.001 0.063 0.003 0.000 0.066 0.002 0.000 0.061-0.001 0.003 0.065 0.002 Min. -0.004-0.026-0.001-0.005-0.022-0.001-0.004-0.024-0.009-0.007-0.025-0.002 Mean -0.002 0.019 0.001-0.002 0.022 0.001-0.001 0.019-0.005-0.001 0.025 0.000 Std.Dev. ±0.001 ±0.025 ±0.001 ±0.001 ±0.025 ±0.001 ±0.001 ±0.024 ±0.003 ±0.003 ±0.027 ±0.001 Project S_B_A_C S_B_I_C S_B_A_P S_B_I_P υx υy υz υx υy υz υx υy υz υx υy υz Max. 0.000 0.061 0.004-0.001 0.065 0.006 0.005 0.064 0.003 0.000 0.065 0.000 Min. -0.002-0.024-0.001-0.005-0.023-0.001 0.000-0.023-0.001-0.002-0.024-0.004 Mean -0.001 0.019 0.002-0.003 0.021 0.003 0.002 0.020 0.001-0.001 0.020-0.001 td.dev. ±0.001 ±0.024 ±0.002 ±0.001 ±0.025 ±0.002 ±0.002 ±0.024 ±0.001 ±0.001 ±0.025 ±0.001 Project S2_A_A_C S2_A_I_C S2_A_A_P S2_A_I_P υx υy υz υx υy υz υx υy υz υx υy υz Max. 0.004 0.063 0.001 0.001 0.061 0.002 0.001 0.056 0.004 0.000 0.067 0.008 Min. -0.002-0.020-0.003-0.001-0.022-0.001-0.005-0.024-0.003-0.014-0.019-0.001 Mean 0.001 0.021-0.001 0.000 0.020 0.000-0.003 0.017 0.001-0.003 0.021 0.003 td.dev. ±0.002 ±0.023 ±0.001 ±0.001 ±0.023 ±0.001 ±0.001 ±0.022 ±0.002 ±0.004 ±0.024 ±0.002 Project S2_B_A_C S2_B_I_C S2_B_A_P S2_B_I_P υx υy υz υx υy υz υx υy υz υx υy υz Max. 0.001 0.061 0.001 0.000 0.054 0.002 0.006 0.073 0.001 0.006 0.073 0.001 Min. 0.000-0.023-0.001-0.005-0.023-0.001-0.001-0.014-0.003-0.001-0.014-0.003 Mean 0.000 0.020 0.000-0.002 0.016 0.001 0.001 0.023 0.000 0.001 0.023 0.000 td.dev. ±0.000 ±0.023 ±0.001 ±0.002 ±0.021 ±0.001 ±0.002 ±0.024 ±0.001 ±0.002 ±0.024 ±0.001 준편차의 최대값은 각 방향별로 ±0.004 m, ±0.027 m, ±0.003 m, 표준편차의 최소값은 각 방향별로 ±0.000 m, ±0.021 m, ±0.001 m, 그리고 그 평균값은 ±0.002 m, ±0.024 m, ±0.002 m로 나타났다. 이상과 같이 X, Z방 향에 비해 촬영거리방향인 Y방향으로 비교적 큰 잔차가 발생했다. 또한 CDW와 Photomodeler에 의한 결과를 구 분하여 각 프로젝트별 표준편차의 분포를 나타내면 Fig. 7과 같고, CDW와 Photomodeler에 의해 결과의 차이는 미소하며, 각 방향별 표준편차의 패턴의 변화도 미소한 것으로 나타났다. 끝으로 unbalance 방식에 의한 왜곡 계수를 적용하여 CDW로 다중영상 표정한 결과의 잔차 통계치는 Table 8 과 같고, 이를 balance 방식에 의한 왜곡 계수를 적용하여 CDW로 처리한 결과의 표준편차 분포와 비교하면 Fig. 8과 같다. Fig. 8에서 두 방식에 의한 왜곡 계수를 적용하 여 영상처리 결과는 각 방향별로 미소한 차이를 보여 157
Korean Journal of Remote Sensing, Vol.30, No.1, 2014 Fig. 7. Distribution of standard deviation calculated by CDW and Photomodeler. Table 8. Residual Statistic of check points determined by CDW using distortion coefficients of photomodeler Galaxy S Type A Galaxy S Type B Auto Infinity Auto Infinity υx υy υz υx υy υz υx υy υz υx υy υz Max. 0.000 0.065 0.002 0.001 0.066 0.001 0.001 0.063 0.001 0.000 0.063 0.002 Min. -0.003-0.024-0.001-0.003-0.024-0.001-0.001-0.024-0.001-0.003-0.025-0.001 Mean -0.001 0.021 0.001-0.001 0.020 0.000 0.000 0.019 0.000-0.001 0.019 0.000 td.dev. ±0.001 ±0.025 ±0.001 ±0.001 ±0.026 ±0.001 ±0.001 ±0.024 ±0.001 ±0.001 ±0.025 ±0.001 Galaxy S2 Type A Galaxy S2 Type B Auto Infinity Auto Infinity υx υy υz υx υy υz υx υy υz υx υy υz Max. 0.001 0.063 0.001-0.002 0.056 0.002 0.000 0.060 0.001 0.003 0.050 0.000 Min. -0.001-0.024-0.001-0.006-0.024-0.003-0.004-0.023-0.001-0.002-0.026-0.003 Mean 0.000 0.019 0.000-0.004 0.016 0.000-0.001 0.019 0.000 0.001 0.013-0.001 td.dev. ±0.001 ±0.024 ±0.001 ±0.002 ±0.023 ±0.001 ±0.001 ±0.023 ±0.001 ±0.002 ±0.021 ±0.001 Fig. 8. Comparison of Standard deviation Between Two kinds of radial distortion correction model. 158
Application of Smartphone Camera Calibration for Close-Range Digital Photogrammetry balance 및 unbalance 방식 중 어떠한 왜곡 모델을 사용하 던지 거의 일치하는 결과를 나타냄을 알수있었다. 5. 결론 본 연구에서는 최근 널리 보급되고 있는 스마트폰에 내장된 카메라의 근접사진측량에의 활용 가능성을 평 가하기 위해 이루어졌다. 본 연구를 위해 삼성 갤럭시 S 모델 2대와 S2 모델 2대가 사용되었고, 스마트폰 영 상의 정확도 평가에 앞서 스마트폰 카메라의 검정을 수행하였다. 카메라 검정은 자동과 무한대 초점에서 모두 이루어졌고, balance 방식의 방사 왜곡 모델을 이 용하는 CDW와 unbalance 방식의 모델을 이용하는 Photomodeler에 의해 수행되었다. 16가지 프로젝트로 구 분하여 검정한 결과, 모든 경우에 1 mm 이내의 번들조 정 RMS 오차를 나타냈고, 각 방향별 RMS 오차의 평균 은 0.22 mm, 0.20 mm, 0.29 mm로 나타났다. 또한 카메라 검정에 의해 결정된 왜곡 계수를 적용하여 방사 왜곡 곡 선을 나타낸 결과, S와 S2 모델에 대한 자동 및 무한대 초 점에서 왜곡 곡선의 패턴이 거의 유사하게 나타나 초점 모드에 따른 왜곡 패턴의 변화는 극히 미소한 것으로 판 단된다. 각 프로젝트별 왜곡 계수를 내부표정요소로 하여 16 가지 프로젝트에 따른 검사점 성과를 비교한 결과, 자동 과 무한대 초점에 따른 결과 비교에서 각 방향별 평균값 과 표 준 편 차 는 -0.001±0.002 m, 0.000±0.003 m, 0.002±0.001 m로 나타났고, 또한 다중영상 처리에 사용 된 소프트웨어(CDW와 Photomodeler)에 따른 결과 비교 에서 각 방향별 평균값과 표준편차는 -0.001±0.003 m, 0.000±0.003 m, -0.001±0.003 m로 나타났다. 따라서 초 점 모드와 왜곡 모델에 따른 3차원 위치결정에서의 결 과 차이는 거의 없는 것으로 판단되었다. 또한 토탈스테 이션에 의한 검사점 성과를 최확값으로 하고 각 프로젝 트별로 결정된 검사점 성과를 관측값으로 하여 각 방법 별 잔차에 대한 통계치를 계산한 결과, 모든 프로젝트에 서 표준편차의 최대값은 각 방향별로 ±0.004 m, ±0.027 m, ±0.003 m, 표준편차의 최소값은 각 방향별로 ±0.000 m, ±0.021 m, ±0.001 m, 그리고 그 평균값은 ±0.002 m, ±0.024 m, ±0.002 m로 나타났고, X, Z방향에 비해 촬 영거리방향인 Y방향으로 비교적 큰 잔차가 발생했다. 또한 unbalance 방식에 의해 결정된 왜곡 계수를 balance 방식을 이용하는 CDW에 적용하여 다중영상 표 정한 결과, 기존의 balance 방식에 의한 왜곡 계수를 적용 한 결과와 각 방향별로 수 mm 차이를 보여, balance와 unbalance 방식 중 어떠한 왜곡 모델을 사용하던지 거의 일치하는 결과를 나타냄을 알수있었다. 이상과 같이 근접 대상물의 3차원 위치결정에 있어 정확도 측면에서 스마트폰 카메라의 활용이 충분히 가 능할 것으로 기대된다. 또한 본연구를 활용하여 향후 UAVs, 어플리케이션, WiFi 기술 등과 연계된 연구에서 우수한 성과물을 제공할 수 있을 것으로 기대된다. 사사 본 연구는 교육부와 한국연구재단의 지역혁신인력양 성사업으로 수행된 연구결과임 Reference Akca, D. and A. Gruen, 2009. Comparative geometric and radiometric evaluation of mobile phone and still video cameras, The Photogrammetric Record, 24(127): 217-245. Cho, W.S., 2003. Analysis on 3D Positioning Precision Using Mobile Mapping System Images in Photogrammetric Perspective, The Korea Society of Remote Sensing, 19(6): 431-445 (in Korean with English abstract). CITRIS, 2011. http://ishakeberkeley.appspot.com/ Fraser, C.S., 1997. Digital camera self-calibration, ISPRS Journal of Photogrammetry and Remote Sensing, 52(4): 149-159. Fraser, C.S., and S. Al-Ajlouni, 2006. Zoom-dependent camera calibration in digital close- range photogrammetry, Photogrammetric Engineering & Remote Sensing, 72(9): 1017-1026. Ha, D.S., and S.J. Park, 2011. Smart-Phone based User 159
Korean Journal of Remote Sensing, Vol.30, No.1, 2014 Movement State Identification Algorithm, Journal of the Korea society of computer and information, 16(3): 167-174 (in Korean with English abstract). Habib, A., and M. Morgan, 2003. Automatic calibration of low-cost digital cameras, Journal of Optical Engineering, 42(4): 948-955. Jeong, S., 2009. The Analysis of 3-Dimensional Shape Using Non-Metric Cameras, The Korea Society for Geospatial Information System, 17(2): 91-99 (in Korean with English abstract). KIWIPLE, 2010. http://kiwiple.com/about/ Kraus K., 1993. Photogrammetry Volume I. Düummler Verlag, Bonn., pp.277-279. Mobile Millennium Project, 2009. http://traffic. berkeley.edu/ Oh, T.W., and I.P. Lee, 2010. Research Articles: Bundle Block Adjustment of Omni-directional Images by a Mobile Mapping System, Korea Society of Remote Sensing, 26(5): 593-603 (in Korean with English abstract). Pullivelli, A.M., 2005. Low-cost digital cameras: calibration, stability analysis, and applications, University of Calgary, pp. 9. Takeuchi, K., and P.J. Kennelly, 2010. iseismometer: A geoscientific iphone application, Computers & Geosciences, 36: 573-575. Yoo, H.H., S.Y. Jeong, and S.S. Kim, 2003. Evaluation for Geometric Calibration Accuracy of Zoomlens CCD Camera, Korean Society of Surveying Geodesy Photogrammetry and Cartography, 21(3): 245-254 (in Korean with English abstract). 160