서강대학교영상처리연구실 서봉준 양나은 주혜진

Similar documents
,. 3D 2D 3D. 3D. 3D.. 3D 90. Ross. Ross [1]. T. Okino MTD(modified time difference) [2], Y. Matsumoto (motion parallax) [3]. [4], [5,6,7,8] D/3

09권오설_ok.hwp

High Resolution Disparity Map Generation Using TOF Depth Camera In this paper, we propose a high-resolution disparity map generation method using a lo

(JBE Vol. 7, No. 4, July 0)., [].,,. [4,5,6] [7,8,9]., (bilateral filter, BF) [4,5]. BF., BF,. (joint bilateral filter, JBF) [7,8]. JBF,., BF., JBF,.

À±½Â¿í Ãâ·Â

(JBE Vol. 23, No. 6, November 2018) (Regular Paper) 23 6, (JBE Vol. 23, No. 6, November 2018) ISSN 2

19_9_767.hwp

1. 서 론

(JBE Vol. 20, No. 5, September 2015) (Special Paper) 20 5, (JBE Vol. 20, No. 5, September 2015) ISS

04임재아_ok.hwp

07.045~051(D04_신상욱).fm

2 : 3 (Myeongah Cho et al.: Three-Dimensional Rotation Angle Preprocessing and Weighted Blending for Fast Panoramic Image Method) (Special Paper) 23 2

메뉴얼한글

(JBE Vol. 23, No. 2, March 2018) (Special Paper) 23 2, (JBE Vol. 23, No. 2, March 2018) ISSN

(JBE Vol. 21, No. 1, January 2016) (Regular Paper) 21 1, (JBE Vol. 21, No. 1, January 2016) ISSN 228

3 : 3D (Seunggi Kim et. al.: 3D Depth Estimation by a Single Camera) (Regular Paper) 24 2, (JBE Vol. 24, No. 2, March 2019)

untitled

01이국세_ok.hwp

DBPIA-NURIMEDIA

2 : (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, (JBE

<4D F736F F D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5>

07Á¤Ã¥¸®Æ÷Æ®-pdf¿ë

184최종

200707Á¤Ã¥¸®Æ÷Æ®_³»Áö

45-51 ¹Ú¼ø¸¸

Gray level 변환 및 Arithmetic 연산을 사용한 영상 개선

<91E6308FCD5F96DA8E9F2E706466>


<BACFC7D1B3F3BEF7B5BFC7E22D3133B1C733C8A BFEB2E687770>

PCB PCB. PCB P/G de-cap [2],[3]., de-cap ESL(Equivalent Series Inductance) [3],. P/G [4], P/G. de-cap P/G, PCB.. 단일비아를이용한 P/G 면공진상쇄 2-1 P/G 면공진현상 PCB

기관별 공동 Template

02이주영_ok.hwp

¼º¿øÁø Ãâ·Â-1

<30342DBCF6C3B3B8AEBDC3BCB33228C3D6C1BE292E687770>

박선영무선충전-내지

14.이동천교수님수정

63-69±è´ë¿µ

... K-vision Fig.. K-vision camera tracking screen Drummond [3] 3. 3 (lines), (edge) 3. (target). (homography perspective transform) [4]. (drifting).

4 CD Construct Special Model VI 2 nd Order Model VI 2 Note: Hands-on 1, 2 RC 1 RLC mass-spring-damper 2 2 ζ ω n (rad/sec) 2 ( ζ < 1), 1 (ζ = 1), ( ) 1

02-1기록도전( )

목 록( 目 錄 )

03-1영역형( )

1. 3DTV Fig. 1. Tentative terrestrial 3DTV broadcasting system. 3D 3DTV. 3DTV ATSC (Advanced Television Sys- tems Committee), 18Mbps [1]. 2D TV (High

<372DBCF6C1A42E687770>

<BDC3B9CEB9AEC8ADB0ADC1C2C3D1BCAD F32C2F72E687770>

ch3.hwp

김기남_ATDC2016_160620_[키노트].key

Ⅱ. Embedded GPU 모바일 프로세서의 발전방향은 저전력 고성능 컴퓨팅이다. 이 러한 목표를 달성하기 위해서 모바일 프로세서 기술은 멀티코 어 형태로 발전해 가고 있다. 예를 들어 NVIDIA의 최신 응용프 로세서인 Tegra3의 경우 쿼드코어 ARM Corte

untitled

# ¸®´õ½ÊÆ÷Ä¿½º_07-2

11 함범철.hwp

±è±¤¼ø Ãâ·Â-1

(¹ßÀü2-2)Á¤´ä01~35

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx

03장

Chap 6: Graphs

표지

1 : 360 VR (Da-yoon Nam et al.: Color and Illumination Compensation Algorithm for 360 VR Panorama Image) (Special Paper) 24 1, (JBE Vol. 24, No

I

(JBE Vol. 22, No. 2, March 2017) (Regular Paper) 22 2, (JBE Vol. 22, No. 2, March 2017) ISSN

DBPIA-NURIMEDIA

위해 사용된 기법에 대해 소개하고자 한다. 시각화와 자료구조를 동시에 활용하는 프로그램이 가지는 한계와 이를 극복하기 위한 시도들을 살펴봄으로서 소셜네트워크의 분석을 위한 접근 방안을 고찰해 보고자 한다. 2장에서는 실험에 사용된 인터넷 커뮤니티인 MLBPark 게시판

슬라이드 1

다중 곡면 검출 및 추적을 이용한 증강현실 책

10 노지은.hwp

::: Korea Handball Federation ::: [ 제 48 회전국소년체육대회 ( 중등부 ) ] Match Team Statistics :10 국민체육센터 Referees : 이두규 / 박현진 Technic

<BCF620C3CAB5EE20342D3220B1D7B8B028326E64292DC7D0BBFDBFEB2E706466>

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 10, Oct ,,. 0.5 %.., cm mm FR4 (ε r =4.4)

(JBE Vol. 21, No. 6, November 2016) (Special Paper) 21 6, (JBE Vol. 21, No. 6, November 2016) ISSN

2.pdf

., 3D HDTV. 3D HDTV,, 2 (TTA) [] 3D HDTV,,, /. (RAPA) 3DTV [2] 3DTV, 3DTV, DB(, / ), 3DTV. ATSC (Advanced Television Systems Committee) 8-VSB (8-Vesti

::: Korea Handball Federation ::: [ 대학핸드볼리그 ( 대학부 ) ] Match Team Statistics :50 원광대체육관 Referees : Technical o

2 : (Jaeyoung Kim et al.: A Statistical Approach for Improving the Embedding Capacity of Block Matching based Image Steganography) (Regular Paper) 22

04±èÂù¿í(19-23)


비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2

Vol.266 C O N T E N T S M O N T H L Y P U B L I C F I N A N C E F O R U M

Microsoft PowerPoint - Java7.pptx

DBPIA-NURIMEDIA

(JBE Vol. 20, No. 6, November 2015) (Regular Paper) 20 6, (JBE Vol. 20, No. 6, November 2015) ISSN

°í¼®ÁÖ Ãâ·Â

Left Center Right 3차원 L 비디오 C 부호화시스템 R LCR 가상시점영상 N- 시점영상출력 깊이정보맵생성 L C R 깊이정보맵 가상시점영상합성 1. 3 N- Fig. 1. N-view system with the 3-view configuration.

[ReadyToCameral]RUF¹öÆÛ(CSTA02-29).hwp

ez-md+_manual01

(JBE Vol. 24, No. 1, January 2019) (Regular Paper) 24 1, (JBE Vol. 24, No. 1, January 2019) ISSN 2287

분 후 가구수 현 행 조 후 가구수 가구수 비 장호원 진암5 468 부 발 무촌3 579 백 사 현방 증포1 448 증 포 갈산1 769 진암5 281 기존 자연마을 진암 코아루아파트 369세대 무촌3 271 기존 자연마을 무촌 효

PowerPoint 프레젠테이션

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>

3 : OpenCL Embedded GPU (Seung Heon Kang et al. : Parallelization of Feature Detection and Panorama Image Generation using OpenCL and Embedded GPU). e

歯3일_.PDF

성능 감성 감성요구곡선 평균사용자가만족하는수준 성능요구곡선 성능보다감성가치에대한니즈가증대 시간 - 1 -

<35335FBCDBC7D1C1A42DB8E2B8AEBDBAC5CDC0C720C0FCB1E2C0FB20C6AFBCBA20BAD0BCAE2E687770>

ȲÀμº Ãâ·Â

09김수현_ok.hwp

하반기_표지

Microsoft Word - SRA-Series Manual.doc

[ 융합과학 ] 과학고 R&E 결과보고서 뇌파를이용한곤충제어 연구기간 : ~ 연구책임자 : 최홍수 ( 대구경북과학기술원 ) 지도교사 : 박경희 ( 부산일과학고 ) 참여학생 : 김남호 ( 부산일과학고 ) 안진웅 ( 부산일과학고 )

5-서영주KICS hwp

2005CG01.PDF

( )실험계획법-머리말 ok

Transcription:

서강대학교영상처리연구실 20070933 서봉준 20070957 양나은 20071035 주혜진

연구배경 개요 최근 3D 영상표현수요가증가함에따라다양한콘텐츠의개발이필요 3D 영상촬영을위해서는고가의특수장비가필요 기존의 2D 영상을 3D 영상으로변환하는것의필요성증대 연구목표 간단한조작과단순한장비로 3D 효과얻기 Segmentation 기술을응용하여 2D 영상에서깊이정보추출 추출된깊이정보를바탕으로 3D 영상을출력 2

Block diagram I : 입력영상 : marker가입력된영상 : marker에따라 segmentation된영상 : anaglyph 영상 : defocusing 영상 : stereogram 영상 I M I S I E1 I E 2 I E3

기능구현방법 시스템구현 3 단계 (marker input, depth map generation, 3D effect) Marker input: 사용자로부터 marker 입력을받을수있는 interface 작성 Depth map generation: graph cut 이론을기반으로깊이별 segmentation 을통한 depth map generation 3D effect: defocusing, anaglyph, stereogram 개발기간 역할분담 날짜 내용 이름 해당업무 5~6월 ( 진행률 : 10%) 프로젝트주제결정 7월 ( 진행률 : 30%) 기존방법조사및구현 8월 ( 진행률 : 50%) 기존방법결과비교및개선 9월 ( 진행률 : 70%) 기존방법개선및단계별알고리즘통합 10~11월 ( 진행률 : 100%) 통합시스템구성및최종시현 양나은 주혜진 서봉준 Segmentation, GUI 구현 3D 효과구현자료조사및정리 4

Depth map generation Depth map generation 사용자로부터영상의깊이 (depth) 정보를입력받아깊이별로 segmentation Step 1: watershed 방법을사용해입력영상을 pre-segmentation [1] Step 2: 사용자가입력한 marker 정보를바탕으로단계별 segmentation (interactive graph cut algorithm [2, 3]) Step 3: 각단계별결과를종합하여최종 depth map generation depth _ value 는 depth가깊을수록작은값을가지며 grayscale로표현 [1] Y. Li, J. Sun, C. K. Tang, and H. Y. Shum, Lazy snapping, in Proc. ACM SIGGRAPH, vol. 23, no. 3, pp. 303 308, Los Angeles, CA, USA, Aug. 2004. [2] Y. Boykov and M. Jolly, Interactive graph cuts for optimal boundary & region segmentation of objects in N-D images, in Proc. IEEE Int. Conf. Computer Vision, vol. 1, pp. 105 112, Vancouver, Canada, July 2001. [3] Y. Boykov and V. Kolmogorov, An experimental comparison of min-cut/max-flow algorithms for energy minimization in vision, IEEE Trans. Pattern Analysis and Machine 5 Intelligence, vol. 26, no. 9, pp. 1124 1137, Sept. 2004.

Anaglyph generation Anaglyph generation Stereo 영상생성 [4, 5] Depth layer에따라시차 ( parallax ) 값을계산 B : ( D + P) = M : P, B = 6. 5 cm BP M = ç æ depth _ value parallax ö = M 1 - è 255 ø D + P 입력영상을 reference라하고, 좌우로 parallax / 2만큼입력영상을 shift하여좌영상과우영상을생성 Reversed stereo 영상 Depth가깊은 layer가더큰 parallax 를계산 depth _ value 를가지도록하여 [4] S. Curti, D. Sirtori, and F. Vella, 3D effect generation from monocular view, in Proc. 1st Int. Symposium, 3D Data Processing Visualization and Transmission, pp. 550 553, Padova, Italy, June 2002. [5] S. Battiato, A. Capra, S. Curti, and M. L. Cascia, 3D stereoscopic image pairs by depth-map generation, in Proc. 2nd Int. Symposium, 3D Data Processing Visualization and 6 Transmission, pp. 124 131, Thessaloniki, Greece, Sept. 2004.

Anaglyph generation Anaglyph generation (cont.) Red/cyan anaglyph 영상 + = 좌영상 (cyan) 우영상 (red) R/C anaglyph 영상 좌우 Red/cyan (R/C) Red/blue (R/B) Green/magenta (G/M) 특징 가장흔하게사용 제한된색상인식 Ghosting 제거 인쇄물에주로사용 적은색수차 Anaglyph 영상종류 7

Defocusing, stereogram generation Defocusing 근경은또렷하게, 원경은흐릿하게하여원근감을강조 Depth layer 에따라다른크기의 kernel 사용 Stereogram generation Stereo 영상생성방식과동일하게좌영상과우영상생성 교차법 (cross) 평행법 (parallel) Display 방식우영상 좌영상좌영상 우영상 초점위치화면앞화면뒤 보는방법양안시선교차양안시선평행 우영상 < 교차법 > 좌영상 좌영상 < 평행법 > 우영상 8

3D 효과비교 3D 효과비교및결합 Anaglyph Defocusing Stereogram 원리 양안시차 초점거리 양안시차 장점 간편한방법으로입체감을느낄수있음 입체감을쉽게느낄수있음 특별한도구가필요하지않음 특별한도구가필요하지않음 모든색정보보존 단점 어지러움 Anaglyph 안경필요 원거리의디테일정보를잃어버림 긴연산시간 사용자의노력필요 특징 다양한칼라채널사용가능 Defocusing 정도에따라다양한연출이가능 R/C half-version anaglyph 우영상의 red-channel 에 red-tinted grayscale 영상사용 3D 효과결합 Defocusing+anaglyph, defocusing+intensity Cross 방식을더쉽게볼수있음 9

하나의 GUI 시스템환경 Input markers 단계선택 (1~6단계) Save/load markers 깊이계산 Depth map 추출 3D effects Defocusing Anaglyph Stereogram 통합시스템구현 10

Depth map generation 실험결과 (1/4) 사용자로부터최대 6단계의깊이정보를입력받고, 이를순차적으로 iteration한뒤최종 depth map을추출 깊이정보입력단계별 segmentation 깊이지도추출 Defocusing 원본영상 Defocusing 11

실험결과 (2/4) R/C, R/B anaglyph generation R/C anaglyph Reversed R/C anaglyph 원본영상 R/B anaglyph Reversed R/B anaglyph 12

실험결과 (3/4) G/M anaglyph 원본영상 Stereogram generation G/M anaglyph Reversed G/M anaglyph 교차법 평행법 13

R/C half-version anaglyph 실험결과 (4/4) 원본영상 R/C anaglyph R/C half-version anaglyph Defocusing + anaglyph Defocusing + intensity 14

결론 결론및추후과제 한장의영상에서깊이정보추출 깊이정보를바탕으로양안시차를표현하는영상출력 단일 2D 영상을 3D로변환 추후과제 Depth cue (vanishing line/point, defocus, t-junction 등 ) 를이용해사용자입력없이 depth map 생성자동화 [5, 6, 7] Edge 주변의 segmentation 정확도향상 [5] S. Battiato, A. Capra, S. Curti, and M. L. Cascia, 3D stereoscopic image pairs by depth-map generation, in Proc. 2nd Int. Symposium, 3D Data Processing Visualization and Transmission, pp. 124 131, Thessaloniki, Greece, Sept. 2004. [6] S. Bae and F. Durand, Defocus magnification, in Proc. Computer Graphics Forum, vol. 26, no. 3, pp. 571 579. Prague, Czech, Sept. 2007. [7] M. Dimiccoli and P. Salembier, Exploiting t-junctions for depth segregation in single images, in Proc. IEEE Conf. Acoustics, Speech and Signal Processing, pp. 1229 1232, Taipei, Taiwan, Apr. 2009. 15