06이상희_ok.hwp

Similar documents
회원번호 대표자 공동자 KR000****1 권 * 영 KR000****1 박 * 순 KR000****1 박 * 애 이 * 홍 KR000****2 김 * 근 하 * 희 KR000****2 박 * 순 KR000****3 최 * 정 KR000****4 박 * 희 조 * 제

09권오설_ok.hwp

ºñ»óÀå±â¾÷ ¿ì¸®»çÁÖÁ¦µµ °³¼±¹æ¾È.hwp

XXXXXXXXXXXXX XXXXXXX

Microsoft Word - 15__ _ 임덕원

歯522박병호.PDF


ch3.hwp

High Resolution Disparity Map Generation Using TOF Depth Camera In this paper, we propose a high-resolution disparity map generation method using a lo

b77¹¼úÁ¤º¸š

(JBE Vol. 21, No. 1, January 2016) (Regular Paper) 21 1, (JBE Vol. 21, No. 1, January 2016) ISSN 228

07변성우_ok.hwp

CC hwp

08김현휘_ok.hwp

歯이

서울도시연구_13권4호.hwp

지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Nov.; 26(11),

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 6, Jun Rate). STAP(Space-Time Adaptive Processing)., -

자기구성지도 기반 방법을 이용한 이상 탐지(Novelty Detection using SOM SOM-based Methods)

hwp

V28.

Á¦190È£(0825).hwp

<5BB0EDB3ADB5B55D B3E2B4EBBAF12DB0ED312D312DC1DFB0A32DC0B6C7D5B0FAC7D02D28312E BAF2B9F0B0FA20BFF8C0DAC0C720C7FCBCBA2D D3135B9AEC7D72E687770>

* pb61۲õðÀÚÀ̳ʸ

À±½Â¿í Ãâ·Â

(JBE Vol. 7, No. 4, July 0)., [].,,. [4,5,6] [7,8,9]., (bilateral filter, BF) [4,5]. BF., BF,. (joint bilateral filter, JBF) [7,8]. JBF,., BF., JBF,.

Microsoft PowerPoint - chap04-연산자.pptx

- 2 -

exp

33 래미안신반포팰리스 59 문 * 웅 입주자격소득초과 34 래미안신반포팰리스 59 송 * 호 입주자격소득초과 35 래미안신반포팰리스 59 나 * 하 입주자격소득초과 36 래미안신반포팰리스 59 최 * 재 입주자격소득초

(JBE Vol. 20, No. 6, November 2015) (Regular Paper) 20 6, (JBE Vol. 20, No. 6, November 2015) ISSN


,. 3D 2D 3D. 3D. 3D.. 3D 90. Ross. Ross [1]. T. Okino MTD(modified time difference) [2], Y. Matsumoto (motion parallax) [3]. [4], [5,6,7,8] D/3

#유한표지F

³»Áö_10-6

A Time Series and Spatial Analysis of Factors Affecting Housing Prices in Seoul Ha Yeon Hong* Joo Hyung Lee** 요약 주제어 ABSTRACT:This study recognizes th

Chapter 1

DBPIA-NURIMEDIA

Journal of Life Science 2011, Vol. 21. No μ μ

(JBE Vol. 23, No. 5, September 2018) (Regular Paper) 23 5, (JBE Vol. 23, No. 5, September 2018) ISSN

Microsoft Word - KSR2012A062.doc

춤추는시민을기록하다_최종본 웹용

28 저전력복합스위칭기반의 0.16mm 2 12b 30MS/s 0.18um CMOS SAR ADC 신희욱외 Ⅰ. 서론 Ⅱ. 제안하는 SAR ADC 구조및회로설계 1. 제안하는 SAR ADC의전체구조

안 산 시 보 차 례 훈 령 안산시 훈령 제 485 호 [안산시 구 사무 전결처리 규정 일부개정 규정] 안산시 훈령 제 486 호 [안산시 동 주민센터 전결사항 규정 일부개정 규

Software Requirrment Analysis를 위한 정보 검색 기술의 응용

8-VSB (Vestigial Sideband Modulation)., (Carrier Phase Offset, CPO) (Timing Frequency Offset),. VSB, 8-PAM(pulse amplitude modulation,, ) DC 1.25V, [2

04 Çмú_±â¼ú±â»ç

특집-5

2 : (Juhyeok Mun et al.: Visual Object Tracking by Using Multiple Random Walkers) (Special Paper) 21 6, (JBE Vol. 21, No. 6, November 2016) ht


THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Mar.; 28(3),

歯 PDF

DBPIA-NURIMEDIA

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Dec.; 27(12),

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 10, Oct ,,. 0.5 %.., cm mm FR4 (ε r =4.4)

02이재원_ok.hwp

2 : (JEM) QTBT (Yong-Uk Yoon et al.: A Fast Decision Method of Quadtree plus Binary Tree (QTBT) Depth in JEM) (Special Paper) 22 5, (JBE Vol. 2

CR hwp

07.045~051(D04_신상욱).fm

1 [2]2018개방실험-학생2기[ 고2]-8월18일 ( 오전 )-MBL활용화학실험 수일고등학교 윤 상 2 [2]2018개방실험-학생2기[ 고2]-8월18일 ( 오전 )-MBL활용화학실험 구성고등학교 류 우 3 [2]2018개방실험-학생2기[

(JBE Vol. 21, No. 1, January 2016) (Special Paper) 21 1, (JBE Vol. 21, No. 1, January 2016) ISSN 228

untitled

2.pdf

[ReadyToCameral]RUF¹öÆÛ(CSTA02-29).hwp

E-IC-D-1-065(수정).hwp

DBPIA-NURIMEDIA

DBPIA-NURIMEDIA

정보기술응용학회 발표

REP - CP - 016, N OVEMBER 사진 요약 25 가지 색상 Surf 를 이용한 사진 요약과 사진 배치 알고리즘 Photo Summarization - Representative Photo Selection based on 25 Color Hi

DBPIA-NURIMEDIA

Kor. J. Aesthet. Cosmetol., 라이프스타일은 개인 생활에 있어 심리적 문화적 사회적 모든 측면의 생활방식과 차이 전체를 말한다. 이러한 라이프스 타일은 사람의 내재된 가치관이나 욕구, 행동 변화를 파악하여 소비행동과 심리를 추측할 수 있고, 개인의

슬라이드 1

디지털포렌식학회 논문양식

SIGIL 완벽입문

정밀국문표지-5월

(JBE Vol. 22, No. 2, March 2017) (Regular Paper) 22 2, (JBE Vol. 22, No. 2, March 2017) ISSN

06박영수.hwp

ICT EXPERT INTERVIEW ITS/ ICT? 차량과 인프라 간 통신(V2I) Nomadic 단말 통신(V2P) 차량 간 통신(V2V) IVN IVN [ 1] ITS/ ICT TTA Journal Vol.160 l 9

?

<C3E6B3B2B1B3C0B C8A32DC5BEC0E7BFEB28C0DBB0D4292D332E706466>

08년요람001~016

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jun.; 27(6),

30이지은.hwp


CSR-4¿ùÈ£ 5±³

3 : 3D (Seunggi Kim et. al.: 3D Depth Estimation by a Single Camera) (Regular Paper) 24 2, (JBE Vol. 24, No. 2, March 2019)

한국조경학회지 47(3): 39~48, J. KILA Vol. 47, No. 3, pp. 39~48, June, 2019 pissn eissn

Microsoft Word - 04 _ __262 박장현

Journal of Educational Innovation Research 2019, Vol. 29, No. 1, pp DOI: (LiD) - - * Way to

<31362DB1E8C7FDBFF82DC0FABFB9BBEA20B5B6B8B3BFB5C8ADC0C720B1B8C0FC20B8B6C4C9C6C32E687770>

Journal of Educational Innovation Research 2018, Vol. 28, No. 1, pp DOI: * A Analysis of

<35335FBCDBC7D1C1A42DB8E2B8AEBDBAC5CDC0C720C0FCB1E2C0FB20C6AFBCBA20BAD0BCAE2E687770>

DBPIA-NURIMEDIA

µðÇÃÇ¥Áö±¤°í´Ü¸é

02손예진_ok.hwp

(Exposure) Exposure (Exposure Assesment) EMF Unknown to mechanism Health Effect (Effect) Unknown to mechanism Behavior pattern (Micro- Environment) Re

232 도시행정학보 제25집 제4호 I. 서 론 1. 연구의 배경 및 목적 사회가 다원화될수록 다양성과 복합성의 요소는 증가하게 된다. 도시의 발달은 사회의 다원 화와 밀접하게 관련되어 있기 때문에 현대화된 도시는 경제, 사회, 정치 등이 복합적으로 연 계되어 있어 특

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>

자기공명 임피던스 단층촬영 기술 연구센터 \(MREIT Research Center\)

Transcription:

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 559 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) 특집논문 (Specal Paper) 방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) http://dx.do.org/10.5909/jbe.2013.18.4.559 ISSN 2287-9137 (Onlne) ISSN 1226-7953 (Prnt) 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 이 상 희 a), 박 한 성 a), 안 정 일 b), 온 영 상 b), 조 강 현 a) Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton Sanghee Lee a), Hansung Park a), Jungl Ahn b), Youngsang On b), and Kanghyun Jo a) 요 약 2차원 비디오를 3차원 스테레오 비디오로 변환할 때 기존 비디오에 삽입되어 있는 오버레이 텍스트(overlay text) 그래픽 영역으로 인해 발생하는 문제점을 이 논문에서 제시한다. 이를 해결하기 위한 방법으로 2차원 비디오를 오버레이 텍스트 그래픽 영역만 있는 영상과 오버레이 그래픽 영역이 추출되어 홀(hole)이 있는 영상으로 분리하여 처리하는 시나리오를 제안한다. 그리고 이 시나리오의 첫 번째 단계로 오버레이 텍스트 영역을 검색하고 추출하는 방법에 대해서만 이 논문에서 논한다. 비디오 시퀀스(sequence)가 입력되 면 불필요한 연산 과정을 줄이기 위해 해리스 코너(Harrs corner)로 얻어진 코너 밀도 맵을 이용하여 프레임 내 오버레이 텍스트의 존재 유무를 먼저 판단한다. 오버레이 텍스트가 있다면, 색(color) 정보와 움직임(moton) 정보를 결합하여 오버레이 텍스트 그래픽 영 역을 검색하고 추출한다. 실험에서는 여러 가지 장르의 방송용 비디오에 대한 처리 결과를 보여주고 분석했다. Abstract Ths paper has presented a few problems when the 2D vdeo supermposed the overlay text was converted to the 3D stereoscopc vdeo. To resolve the problems, t proposes the scenaro whch the orgnal vdeo s dvded nto two parts, one s the vdeo only wth overlay text graphc regon and the other s the vdeo wth holes, and then processed respectvely. And ths paper focuses on research only to detect and extract the overlay text graphc regon, whch s a frst step among the processes n the proposed scenaro. To decde whether the overlay text s ncluded or not wthn a frame, t s used the corner densty map based on the Harrs corner detector. Followng that, the overlay text regon s extracted usng the hybrd method of color and moton nformaton of the overlay text regon. The experment shows the results of the overlay text regon detecton and extracton process n a few genre vdeo sequence. Keyword : Overlay Text, Capton, Color Dstance, Moton Actvty, 2D-to-3D Converson a) 울산대학교 전기공학부(Department of Electrcal Engneerng, Unversty of Ulsan) b) 울산방송(Ulsan Broadcastng Corporaton) Correspondng Author : 조강현(Kanghyun Jo) E-mal: acejo@ulsan.ac.kr Tel: +82-52-259-2208 이 논문은 2013년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업임(2013R1A1A2009984) 이 논문의 연구결과 중 일부는 IPIU 2013 에서 발표한 바 있음. Manuscrpt receved May 13, 2013 Revsed July 17, 2013 Accepted July 19, 2013

560 방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) Ⅰ. 서 론 오늘날 유투브(YouTube), 유스트림(USTREAM)과 같은 웹 비디오 포털이 매우 인기가 높다. 이는 디지털과 멀티미 디어 기술의 눈부신 발전으로 방송용 영화용 교육용 등으 로 수없이 만들어진 비디오가 디지털 라이브러리가 되고 소비된 결과이다. 영상 제작자나 공급자들은 이 넘쳐나는 비디오를 효율적이고 체계적으로 관리하고 이용할 필요성 을 절감하고 있으며, 방송용에서는 비디오 내용을 설명하 기 위해 부가된 오버레이 텍스트(overlay text)를 주로 사용 하고 있다. 비디오에 나타나는 텍스트는 크게 두 가지로 장면 텍스 트(scene text)와 오버레이 텍스트로 분류할 수 있다. 장면 텍스트는 광고판(advertsng boards), 현수막(banners) 등 과 같이 장면의 한 부분으로써 촬영할 때 자연스럽게 나타 난다. 반면에, 오버레이 텍스트는 인위적 텍스트(artfcal text) 또는 캡션(capton)으로 불리기도 하는데, 편집할 때 촬영된 원본 영상에 그래픽 형태로 부가된다. 뉴스에서의 아나운서 이름 사건 내용 등, 스포츠 중계에서의 팀 명 선수 명 점수 등이 오버레이 텍스트의 예이다. 이처럼 오 버레이 텍스트는 비디오의 내용을 간결하고 직접적으로 표현해주며 중요한 의미적인(semantc) 특징을 가지며 이 를 통해 시청자가 영상의 내용을 이해하는데 도움을 준 다. 비디오에서 오버레이 텍스트를 검색(detecton)하고 추출(extracton)하면, 내용 기반의 비디오 색인(contentbased vdeo ndexng)과 검색(retreval)에 유용하게 이용될 수 있다 [1][2]. 그러나 비디오에 삽입된 오버레이 텍스트 영역이 문제가 되는 경우가 있는데, 비디오 품질 향상(vdeo qualty enhancement)이나 재사용(reuse) 등과 같은 응용 분야이다. 이들 응용 분야는 원본 영상의 복원(restoraton)이 필요하 기 때문이다. 이 외에도 특히, 3차원 영상이 주목을 받으면 서 2D-3D 변환(converson)에서도 부가된 오버레이 텍스트 때문에 다음과 같은 몇 가지 문제가 발생한다. 3차원 비디오에서 오버레이 텍스트는 적절한 장면 깊이 (depth) 위치를 알아야하지만 시청할 때 불편을 초래하지 않는다 [3]. 기존의 방송사가 보유하고 있는 2차원 영상들은 대부분 텍스트가 삽입되어 있다. 이를 3차원 스테레오 비디 오로 변환할 때 부가된 오버레이 텍스트의 적절한 깊이를 조절할 수 없다. 그 결과 텍스트가 선명하게 보이지 않고 고스트와 같은 현상이 생기기도 한다. 또, 다른 객체와의 상대적인 깊이가 잘못 만들어져 앞뒤 순서가 바뀌기도 하 고, 다른 객체와 겹쳐 보이기도 한다. 무엇보다도 변환에 의해서 오버레이 텍스트 영역의 입체감이 사실적으로 느껴 지지 않고, 마치 카드로 오려낸 것처럼 도드라져 보이는 카 드보드 효과(card-board effect) 현상을 보이기도 한다. 이런 문제점을 해결하기 위해 복원된 원본 영상과 오버 레이 텍스트 그래픽 영상으로 분리하여 처리하는 2D-3D 변환 시나리오를 제안한다. 그리고 이 논문에서는 제안하 는 시나리오의 첫 번째 단계로 오버레이 텍스트 그래픽 영 역을 검색하고 추출하여, 오버레이 텍스트 그래픽 영역 비 디오와 그래픽 영역이 제거되고 홀이 존재하는 분리 비디 오를 만드는 과정에 대해서만 논한다. 이를 구현하기 위해 서 비디오 시퀀스(sequence)의 모든 프레임에 대한 검출 과 정을 수행하지 않도록 해리스 코너를 이용하여 오버레이 텍스트 유무를 판단한다. 그다음 오버레이 텍스트가 존재 하는 프레임만 색(color) 정보와 움직임(moton) 정보를 결 합해서 오버레이 텍스트의 전체 그래픽 영역을 효율적으로 검출할 수 있는 방법을 제시했다. 이 논문의 전체 구성은 다음과 같다. 2장은 오버레이 텍 스트 검출과 관련된 기존 연구와 문제점에 대해서 설명하 고, 오버레이 텍스트 그래픽 영역을 검출하는 방법을 제시 한다. 3장은 이 논문에서 제안하는 시나리오를 상세히 설명 하고, 오버레이 텍스트 그래픽 영역을 검출하는 두 가지 단 계에 대해서 논한다. 4장은 여러 가지 방송 프로그램 장르 에 대한 실험 결과를 보여주고 분석한다. 끝으로 5장에서는 결론과 향후 연구 방향에 대해서 논한다. Ⅱ. 기존 연구 비디오에 삽입된 오버레이 텍스트는 다음과 같은 특징이 존재한다. 첫째, 모든 비디오 프레임마다 오버레이 텍스트 가 존재하지 않는다. 둘째, 삽입된 오버레이 텍스트는 프레

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 561 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) 임 내 어느 위치에나 존재하고, 수 프레임 이상 동안 지 속된다. 셋째, 오버레이 텍스트의 크기(sze), 모양(font), 색(color), 개수 등이 매우 다양하다. 넷째, 비디오에 삽입된 오버레이 텍스트의 배경은 대부분 복잡하다. 이런 특징으로 인해 비디오에서 오버레이 텍스트의 검출 이 어렵다. 그럼에도 불구하고, 멀티미디어 기술이 발전하 고 제작되는 양이 증가하면서 비디오 검색에 대한 요구가 많아졌다. 이에 오버레이 텍스트 추출에 관한 연구가 활발 하게 지속되어 왔다. 전형적인 오버레이 텍스트 검색 및 추 출 시스템은 그림 1과 같이 텍스트 검색(text detecton), 텍 스트 위치추정(text localzaton), 텍스트 추출(text extracton)과 광학문자인식(Optcal Character Recognton; OCR)의 네 부분으로 나눌 수 있다 [4]. 그림 1. 일반적인 오버레이 텍스트 검출 시스템 구조 [4] Fg. 1. Structure of the typcal overlay text extracton system [4] 첫째, 텍스트 검색은 비디오 프레임 내에 오버레이 텍스 트 정보(nformaton)가 포함되어 있는지 판단하는 부분이 다. 비디오 시퀀스에서 모든 프레임 내에 오버레이 텍스트 가 삽입되어 있지 않으므로, 프레임마다 오버레이 텍스트 를 검출하고 인식시키는 것은 시간적인 낭비가 된다. 따라 서 먼저 프레임 내에서 오버레이 텍스트가 포함되어 있는 지 판단할 필요가 있고, 오버레이 텍스트 검색 단계에서 이 과정을 수행한다. Km [5] 은 장면 전환 검색(scene-change detecton)을 사용 하여 오버레이 텍스트가 있는 프레임 후보를 찾아내는 방 법을 제안했다. Garg [6] 는 MPEG 비디오에서 P와 B 프레임 이 오버레이 텍스트가 나타나면 증가할 것이라는 생각에서 시작했다. Zhong J [7] 은 전체 비디오 프레임을 작은 윈도우 (wndow) 사용해 스캔(scan)한 뒤, 오버레이 텍스트의 여러 가지 특징을 결합시켜 오버레이 텍스트가 존재할 가능성이 있는 프레임을 추출했다. Mchael A. Smth [8] 는 두 개의 연 속된 프레임의 차이(dfference)에 기반한 장면 변화(scene change)을 검색하고, 장면 스위치(scene swtch) 정보에 의 해서 오버레이 텍스트가 부가된 프레임을 찾아내는 방법을 제안했다. 둘째, 텍스트 위치추정은 프레임 내의 실제적인 텍스트 가 삽입되어 있는 위치를 알아내고 그 영역을 표시하는 역할을 한다. 프레임 내에서 오버레이 텍스트의 위치를 찾아내는 방법은 영역에 기반한 접근법(regon based approaches), 텍스처에 기반한 접근법(texture based aproaches), 특성에 기반한 접근법(feature based approaches)으로 나눌 수 있다 [4]. 영역에 기반한 접근법에는 Lu [9] 에서처럼 선 특징(lne features)을 이용한 방법, Shvakumura [10] 와 Ca Bo [11] 등의 에지 특징(edge features)을 사용한 방법이 있다. 텍스처에 기반한 접근법은 배경과 텍스트 간 텍스처의 차이를 고려 한 것인데, 영역에 기반한 접근법보다 더 강건한 방법이다. 그러나 동일한 시간에 비해 비용이 좀 더 크다. 이 텍스처에 기반한 방법들은 주로 가우스 필터, 가보 필터, 웨이블릿 변환 등을 사용하고 있다 [12-15]. 텍스트에는 항상 많은 에지 정보가 있다. 특성에 기반한 접근법은 먼저 전체 이미지에 서 에지를 발견한 뒤, 스무딩 필터링(smoothng flterng)이 나 모폴로지 팽창(morphologcal dlaton) 방법에 의해서 조각난 특성들을 서로 연결한다 [10][11]. 셋째, 텍스트 추출의 목적은 다음 단계인 광학문자인식 (OCR)을 위해서 텍스트를 추출하고 2진화 시킨다. 기존의 광학문자인식 소프트웨어들은 대부분 2진화된 텍스트 영 상을 입력으로 사용하고 있으므로, 광학문자인식 처리 단 계 전에 텍스트 이미지를 정제(refnement)시키고 2진화 과 정을 거칠 필요가 있다. Wang [16] 은 기울기(gradent)를 사용해서 텍스트의 에지 를 찾은 뒤 텍스트 위치 맵(text locaton map)을 생성했다. Shvakumara [17] 는 그레이스케일에 기반한 세그먼테이션 (segmentaton) 스키마(schema)를 제안했다. L. N. Sun [18] 은 Otsu 방법과 영역 채우기에 기반한 텍스트의 2진 처리 방법 을 사용했다. SY. Lu [19] 은 HSV 공간에서 칼라 클러스터링 (color clusterng)에 의해서 복잡한 칼라 영상에서 텍스트를

562 방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) 추출했다. Km [1] 은 삽입된 오버레이 자막과 그 주변에 전 환 색(transent colors)이 존재한다는 사실을 이용해서 천이 지도(transton map)을 생성하는 방법을 제안했다. 마지막으로 광학문자인식은 비디오 검색과 같은 다양 한 응용에 사용하기 위해 텍스트를 인식하고 의미를 해 석하는 과정이다 [4]. 이 일반적인 오버레이 텍스트 검색 및 추출 시스템은 주로 오버레이 텍스트 영역을 찾은 뒤, 텍스트를 추출해서 문자를 인식시키데 초점이 맞춰져 있 다. 비디오 색인이나 검색과 같은 응용에서는 아주 유용 한 방법이다. 그러나 이 검색 분야와는 달리, 비디오 품질 향상이나 재 사용 등과 같은 응용 분야에서는 이 오버레이 텍스트 영역 으로 인해 문제가 발생한다. 만약 비디오에 움직임이 있는 객체 위에 정지된 오버레이 텍스트가 삽입되어 있다면, 움 직임 추정 알고리즘(moton estmaton algorthm)에서 부정 확하고 불연속적인 움직임 벡터(moton vector)를 만들 수 있다. 이 잘못된 움직임 벡터는 필립스의 내추럴 모션 (Natural Moton)과 같은 움직임 기반 순차주사 알고리즘 (moton-based de-nterlacng algorthms) 성능을 떨어뜨린 다 [20]. 이러한 문제점을 해결하기 위해서 삽입된 오버레이 텍스트를 검출하여 원본 영상을 복원할 필요성이 있다. 또, 이미 방송된 영상에서 오버레이 텍스트가 있는 비디 오를 다른 프로그램 제작에 재사용할 경우도 많다. 방송된 영상을 다시 사용할 때, 기존의 오버레이 텍스트 영역을 흐 리게 만들거나 그 위에 다른 오버레이 텍스트로 덮어 쓴다. 그 결과 영상이 깨끗하지 않아서 시청자 입장에서는 불쾌 함을 초래할 수 있다. 따라서 오버레이 텍스트를 분리하고 원본 영상을 복원할 필요가 있다. 특히 이 논문의 초점이 되는 오버레이 텍스트 그래픽 영 역이 삽입된 기존 2차원 비디오의 3차원 스테레오 비디오 변환에도 서론에서 설명한 것처럼 고스트와 카드 보드 효 과와 같은 몇 가지 문제로 원본 영상의 복원이 필요하다. 이러한 원본 영상 복원이 필요한 응용 분야에서는 전형 적인 오버레이 텍스트 검색 및 추출 시스템을 적용하기 어 렵다. 특히, 현재 주로 사용되고 있는 오버레이 텍스트 그래 픽 영역은 비디오에 텍스트만 삽입하는 경우보다는 텍스트 가 좀 더 눈에 잘 보이도록 사각형이나 원 등의 도형 객체 (objects)를 바탕으로 사용하고, 그 위에 텍스트를 삽입하는 경우가 훨씬 더 많다. 바로 이러한 점이 비디오 품질 향상과 원본 영상 복원과 같은 응용, 특히 이 논문에서 논하고 있는 2차원 비디오의 3차원 스테레오 비디오 변환과 같은 응용 에서는 제대로 처리가 이루어지지 않을 수 있다. 이 문제를 해결하기 위해 비디오에 삽입된 오버레이 텍 스트의 모든 그래픽 영역을 검출할 필요가 있다. 따라서 본 논문에서는 색 정보와 움직임 정보를 결합해서 오버레이 텍스트의 전체 그래픽 영역, 즉 오버레이 텍스트 배경 박스 (background box) 영역을 효율적으로 검출할 수 있는 방법 에 대해서 논한다. 제안하는 방법은 프레임 내 오버레이 텍 스트 유무 판단 과정과 오버레이 텍스트 그래픽 영역 검출 의 두 단계로 구성된다. 2장의 앞부분에서 언급한 것처럼 비디오에 삽입된 오버 레이 텍스트의 특징 중 하나가 모든 비디오 프레임마다 오 버레이 텍스트가 존재하지 않는다는 것이다. 따라서 처리 속도를 향상시키기 위해서 비디오 시퀀스의 모든 프레임에 대한 연산이 불필요하다. 이에 오버레이 텍스트의 존재 유 무를 판단하기 위해 해리스 코너 검출기(Harrs corner detector)를 이용하여 구해진 코너 밀도(corner densty)로 오 버레이 텍스트를 추출 하는 방법 [21] 을 사용했다. 오버레이 텍스트는 크기 모양 색 언어 종류 등이 매우 다양하지만, 텍스트가 위치하는 영역에는 에지들의 교차점들이 밀집하 여 나타난다는 사실에 바탕을 두고 해리스 코너 검출기를 이용하여 오버레이 텍스트를 검출할 수 있다. 이 결과를 바 탕으로 다양한 특성에 관계없이 효율적으로 텍스트의 유무 판단이 가능하다. 한편, 오늘날 대부분의 비디오에는 한 개 이상의 오버레 이 텍스트가 삽입되어 있는데, 이를 처리하기 위해서 색 정 보와 움직임 정보를 결합해서 오버레이 텍스트를 검출 [22] 하 는 방법을 이용했다. 이 방법은 비디오 시퀀스의 샷이 계속 변하는 동안 오버레이 텍스트는 수 프레임 동안 지속되는 데, 오버레이 텍스트가 프레임마다 색 상관성(color correlaton)이 높고 움직임 활동성(moton actvty)이 작다는 가정 에서 시작한다. 이러한 오버레이 텍스트의 특성을 이용하 면 오버레이 텍스트 그래픽의 모양 색 수 등에 대한 사전 정보 없이도 오버레이 텍스트 그래픽 영역을 효과적으로

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 563 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) 검출할 수 있다. 이어지는 3장에서 두 과정의 방법에 대해 서 자세히 설명된다. Ⅲ. 오버레이 텍스트 영역 검출 방법 1. 비디오 품질 향상을 위한 2D-3D 변환 시나리오 3차원 영상 시대의 초기에는 콘텐츠의 부족으로 기존 의 방대한 2차원 비디오를 3차원으로 변환하여 사용할 수 밖에 없다. 또한 기존의 2차원 영상을 3차원으로 재제작 할 수 없는 경우도 발생하여 2차원 비디오의 3차원 스테 레오 비디오 변환 기술은 반드시 필요하다. 이와 관련해 서 그동안 많이 연구되어 왔고, 심지어 일부 텔레비전 제 조사에서는 이미 2D-3D 영상 변환 기능을 탑재하여 판매 하고 있다 [23][24]. 그러나 기존의 상용화된 제품들은 오버레이 텍스트가 삽 입되어 있는 2차원 비디오를 3차원 스테레오 비디오로 변 환할 때 이 오버레이 텍스트의 적절한 깊이를 조절할 수 없다. 그 결과 서론에서 언급했듯이 고스트나 카드보드 효 과와 같은 현상을 초래한다. 이런 문제점을 해결하기 위해 그림 2와 같은 2D-3D 변환 시나리오를 제안한다. 먼저 오버레이 텍스트가 삽입된 기존의 2차원 비디오 시 퀀스에서 텍스트 특성에 기반 한 오버레이 텍스트 그래픽 영역을 검색 및 추출한다. 그 결과 텍스트 영역만 있는 오버 레이 텍스트 그래픽 영상과 그래픽 영역이 제거되어 홀 (hole)이 존재하는 분리 영상이 만들어진다. 홀이 존재하는 분리 영상은 키 프레임(key frame)에 기반 한 복원 알고리듬(n-pantng algorthm)을 적용시켜 원본 영 상으로 복원한다. 원본으로 복원된 영상은 다음 단계로 깊이 (depth) 기반의 3차원 스테레오 영상으로 변환시킨다. 한편, 오버레이 텍스트 그래픽 영상은 3차원 영상에 적합한 형태로 정제(refnement)시킨다. 최종적으로 원본 복원 후 3차원으 로 변환된 분리 영상에 오버레이 텍스트 영상을 적절한 깊이 에 따라 삽입하여, 완성된 3차원 변환 영상을 만든다. 이 논문에서는 제안한 시나리오의 첫 번째 단계로 오버 레이 텍스트 그래픽 영역을 검출하여 오버레이 텍스트 그 래픽 영상과 홀이 존재하는 분리 영상을 생성하는 것에 목 적을 둔다. 이를 구현하기 위해서 불필요한 연산을 줄이기 위한 오버레이 텍스트 유무 판단 과정과 색과 움직임 정보 그림 2. 오버레이 텍스트가 삽입된 2차원 비디오의 3차원 스테레오 비디오로의 변환 시나리오 Fg. 2. Supermposed 2D vdeo-to-3d stereo vdeo converson scenaro

564 방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) 에 기반 한 오버레이 텍스트 그래픽 영역 검출 과정의 두 단계로 이루어진다. 이 과정에 사용된 방법을 이어지는 절 에서 상세히 설명한다. 2. 오버레이 텍스트 영역 검출 비디오에서 사용되는 오버레이 텍스트는 오직 텍스트만 을 사용하는 경우와 텍스트를 좀 더 잘 보이도록 바탕이 되는 사각형, 원 등의 도형 객체 배경 박스 위에 텍스트가 있는 경우로 크게 두 가지로 나눌 수 있다. 오늘날 방송 영 상에서는 후자가 훨씬 사용 빈도가 높다. 이에 이 논문에서 는 광학문자인식 목적이 아닌 오버레이 텍스트 배경 박스 영역 검색 및 추출에 초점을 맞추고, 그림 3과 같이 프레임 내 오버레이 텍스트 유무 판단 과정과 오버레이 텍스트 그 래픽 영역 검출의 두 가지 단계 처리 과정을 제안한다. 방법이 필요하다. 이에 오버레이 텍스트의 존재 유무를 판단 하기 위해 해리스 코너 검출기에 바탕을 둔 코너 밀도를 이 용하는 오버레이 텍스트 추출 방법 [21] 을 사용했다. 텍스트가 위치하는 영역에는 에지들의 교차점들이 밀집하여 나타난 다는 사실에 바탕을 두고 해리스 코너 검출기를 이용하여 오버레이 텍스트의 다양한 특성에 관계없이 효율적으로 텍 스트의 유무 판단이 가능하다. 다음 단계인 오버레이 텍스트 영역 검출(overlay text regon extracton)에서는 비디오에 삽입된 그래픽 영역을 효 율적으로 추출한다. 그 결과 이 논문의 목적인 오버레이 텍 스트 그래픽 영역 영상과 그래픽이 제거된 후 홀이 존재하 는 분리 영상을 생성하게 된다. 비디오에 삽입된 다수의 오 버레이 텍스트를 처리하기 위해서 색 정보와 움직임 정보 를 결합해서 오버레이 텍스트 그래픽의 모양 색 수에 대한 사전 정보 없이 오버레이 텍스트를 검출 [22] 하는 방법을 이 용했다. 이 방법은 오버레이 텍스트가 프레임마다 색 상관 성이 높고 움직임 활동성이 작다는 가정에서 시작한다. 이 어지는 절에서 여기서 제안한 두 과정의 방법에 대해서 상 세히 설명된다. 그림 3. 오버레이 텍스트 그래픽 영역 검출 과정 Fg. 3. Process of overlay text graphc regon detecton and extracton 먼저 오버레이 텍스트 유무 판단(overlay text frame decson) 단계는 검출 과정에서 불필요한 연산을 줄이기 위한 과정이다. 모든 비디오 프레임에 오버레이 텍스트가 존재하 지 않는데, 프레임마다 두 번째 단계의 검출 과정을 수행하 면 시간적인 낭비가 된다. 그러므로 처리 속도를 향상시키기 위해서 비디오 시퀀스의 모든 프레임에 대한 연산을 피하는 2.1. 오버레이 텍스트 유무 판단 비디오 시퀀스의 모든 프레임에 오버레이 텍스트가 삽입 되어 있지 않으므로, 매 프레임 마다 오버레이 텍스트를 검 색하고 추출하는 것은 시간적인 낭비가 된다. 따라서 연속 된 2차원 비디오 시퀀스에서 먼저 입력 프레임마다 오버레 이 텍스트의 존재 유무를 판단해 불필요한 연산 과정을 줄 여줌으로서 처리 속도를 증가시킬 필요가 있다. 이를 위해 본 논문은 특징 점 추출에 널리 쓰이는 해리스 코너 검출기 를 이용한 코너 밀도를 사용한다. 영상 내에서 텍스트 영역 이외에도 많은 부분에 에지가 존재할 수 있다. 그러나 코너 는 각이 진 부분에서 발생하기 때문에 텍스트 영역에 집중 적으로 많이 분포하므로, 영상 내에 존재하는 코너의 밀도 를 이용하면 효율적으로 오버레이 텍스트의 존재 유무를 판단할 수 있다 [21]. 먼저 잘못된 코너 추출을 줄이기 위해 가우시안 필터를 적용한다. 이 영상을 해리스 코너 검출기에 입력시켜 해리 스 코너 응답(corner response) 값을 구한다. 코너의 정도를

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 565 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) 나타내는 이 값에 따라 코너 맵(corner map)을 생성한다. 이렇게 만들어진 코너 맵을 바탕으로 코너 밀도를 구한 뒤, 오버레이 텍스트의 특성을 반영하여 그 존재 여부를 결정 한다 [21]. 비디오 프레임 내에서 코너의 정도는 식 (1)과 (2)로 결정 된다. 여기서 x, y 는 코너 추출 오류를 줄이기 위해 사용된 가우시안 윈도우 W 내부의 점들을 나타내며, I x(, ), I y (, )는 각각 x, y 방향에 대한 기울기를 나타낸다 [21]. å 2 é ( I x ( x, y )) I x ( x, y ) I y ( x, y ) ù W W C( x, y) = ê ú ê (1) 2 I x ( x, y ) I y ( x, y ) ( I y ( x, y )) ú (1) êå å ë ú W W û å [ ] 2 O( x, y) = det( C( x, y)) - k trace( C( x, y)) (2) (2) 다음으로 각 픽셀에 대하여 코너의 정도를 나타내는 식 (2)의 결과를 이용하여 식 (3)과 같이 2진화한 코너 맵 HCM(Harrs Corner Map)을 생성한다. 여기서 k=0.04를 사용하였다 [21]. ì1 f O( x, y) > 0 HCM ( x, y) = í (3) (3) î 0 otherwse 최종적으로 오버레이 텍스트의 존재 여부를 판단하여 오버 레이 텍스트 프레임 후보군으로 결정하기 위해, 식 (3)에서 구 한 HCM에 블록 가중치(block weght)를 이용하여 식 (4)와 같이 코너 밀도를 구하고, 문턱 값을 적용시켜 식 (5)와 같은 코너 밀도 맵 CDM(Corner Densty Map)을 생성한다. corner å HCM ( x, y) ( x, y) ÎB _ densty = (4) Block _ sze ì1 f ( corner _ densty > Threshold) CDM ( x, y) = í (5) (5) î 0 otherwse 블록의 크기는 주로 사용되는 텍스트의 특성을 고려하여 10픽셀 10픽셀이고, 수직 및 수평 방향으로 5픽셀씩 이동 하여 스캔하도록 한다. 식 (4)의 결과로 블록 안의 코너 비 중이 블록 크기의 30% 이상 일 때 텍스트가 존재한다고 판단한다. 여기서 B는 현재 블록을 말한다 [21]. 그림 4는 뉴 스 프로그램 영상에 대해서 코너 맵과 코너 밀도 결과를 잘 보여준다. 코너 밀도 맵 결과에 따라서, 오버레이 텍스트 영역이 없 으면 키 프레임 버퍼(key frame buffer)에 임시 저장한다. 이 저장된 영상은 오버레이 텍스트 그래픽 영역이 추출된 뒤 홀이 생긴 분리 영상의 복원 기준으로 사용된다. 만약 텍스트 영역이 있으면, 다음 절의 오버레이 텍스트 그래픽 영역을 검색하고 추출하는 과정으로 진행한다. 2.2 오버레이 텍스트 영역 검출 비디오 시퀀스의 한 프레임 내에는 여러 개의 오버레이 텍스트가 존재할 수 있다. 기존의 오버레이 텍스트를 검출 하는 방법들은 하나의 경우에만 한정되어 있기 때문에, 여 러 개의 오버레이 텍스트를 동시에 검출하기에는 부적합하 다. 이 논문은 다수의 오버레이 텍스트를 검출하기 위해서, 그림 5에서처럼 색과 움직임 정보를 함께 이용한다. (4) (a) (b) (c) 그림 4. 블록 가중치를 이용하여 추출한 자막 후보 결과 프레임 (a) 원본 영상 (b) 코너 맵 영상 (c) 코너 밀도 영상 Fg. 4. Overlay text canddate result frame usng block weght (a) orgnal mage (b) HCM mage (c) CDM mage

566 방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) 이다 [22]. 다음으로 표준 블록 기반 움직임 추정(standard block based moton estmaton)을 사용하여 각 프레임의 모든 픽 셀에 대해서 움직임 활동성(moton actvty) MA 는 식 (7) 을 이용해서 구한다 [22]. MA N b ( ) =å dv N dv ( ) = 1 b max (7) (7) 그림 5. 오버레이 텍스트 영역 검출 과정 Fg. 5. Process of overlay text regon extracton 비디오 시퀀스의 샷이 계속 변하는 동안 오버레이 텍스 트는 수 프레임 동안 지속된다. 프레임 간의 오버레이 텍스 트 영역은 높은 색 연관성과 낮은 움직임이 있다는 것을 알 수 있다. 이러한 점을 이용하여 GoF(Group of Frames) 라는 초기 학습 프레임(ntal tranng frame)으로부터 색 기반 국부 변화율(color-based local dynamc)과 시간적 움 직임 연속성(temporal moton consstency)을 결합하여 오 버레이 텍스트 영역을 찾아낸다 [22]. 먼저, 두 개의 연속된 프레임 사이에서 서로 대응하는 픽 셀 사이에 HSI 색 거리(color dstance) DC 를 식 (6)처럼 계산한다. DC = ( d ( )) + ( d ( )) (6) ntensty 2 2 chroma k 여기서, k, k H S I 는 k 프레임의 픽셀 의 색상(hue), 채도 (saturaton), 밝기(ntensty) 성분이고, 그리고 d ( ) = I - I + k k 1 ntensty 여기서 dv()는 픽셀 가 중심이 되는 매크로 블록(macro block)에서의 움직임 변위(moton dsplacement) 벡터이고, dv max()는 움직임 변위 벡터 중 최대 크기이다. N b는 매크로 블록의 픽셀 수다 [22]. 이와 같이 구해진 색 거리 DC 와 움직임 활동성 MA 에 문턱 값을 적용하여 프레임 내 픽셀을 분류한다. 이 문턱 값은 연속된 프레임 GoF에서 색 거리를 모두 더한 누적 색 차이 히스토그램(accumulated color dstance hstogram) hst(dc)와 누적 움직임 활동성 히스토그램(accumulated moton actvty hstogram) hst(ma)로부터 구할 수 있다 [22]. 이 두 문턱 값을 각각 적용한 영상으로부터 오버레이 텍스 트 그래픽 후보 영역이 생성된다. 그러나 오버레이 텍스트 배경 박스 영역에 투명 효과 (transparency effect)가 적용되어 있기 때문에 후보 영역이 연속적으로 보이지 않을 수 있다. 그림 6에서처럼 모폴로지 (morphology)를 적용시켜 연속적인 오버레이 텍스트 그래 픽 영역 후보를 추출해 낼 수 있다 [22]. 끝으로 최종적으로 이 후보 영역을 오버레이 텍스트 그래픽의 크기 등과 같은 ( k ) 2 ( k + 1 ) 2 ( k )( k + 1 ) ( ) d ( ) = S + S - 2 S S cos q chroma W = H - H k k + 1 ì W f W 180 q = í î360 - W else o (a) 그림 6. (a) 오버레이 텍스트 영역 후보 결과 영상 (b) 모폴로지 결과 영상 Fg. 6. (a) Overlay text regon canddate result mage (b) Morphology result mage (b)

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 567 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) 특징을 적용하여 정제시키면 오버레이 텍스트 그래픽 영상 을 분리해 낼 수 있다. Ⅳ. 실험 결과 및 분석 기존의 방법들은 광학문자인식을 위해서 비디오 내의 오 버레이 텍스트 검출을 목표로 한다. 지금까지 많은 다양한 방법들이 제안되어 왔고, 비교 실험을 통해서 제안된 방법 의 우수성을 강조하였다. 이러한 기존의 연구와 달리 본 논 문은 비디오 품질 향상 응용에 목적을 두고, 오버레이 텍스 트 그래픽 전 영역을 프레임 내에서 분리한다. 기존의 검색 및 인식을 위한 방법들과 접근하는 목적이 다르므로, 이를 직접 비교하는 것은 옳지 않다. 다만 여러 가지 프로그램 장르의 비디오에 대한 실험을 통해서 오버레이 텍스트 그 래픽 영역의 마스크 결과를 여기서 보여주고 분석했다. 본 논문에서 사용된 실험용 비디오는 이미 방송된 영상 을 이용했고, 스포츠 뉴스 다큐 예능 등 다양한 프로그램 장르에서 수집했다. 비디오의 길이는 1분 정도이고, 한 프 레임 내에 포함된 오버레이 텍스트 그래픽의 수는 2~4개 정도이다. 실험에서 오버레이 텍스트 그래픽 영역 마스크를 얻기 위한 초기 학습 프레임 GoF는 5 프레임으로 정하였고, 색 거리 DC 및 움직임 활동성 MA 의 문턱 값은 실험 영상의 마스크가 가장 잘 나오는 값으로 실험에 의해서 각각 찾아 냈다. 본 논문은 실시간 작업이 아니라 후반 작업(post producton)에 초점이 맞추어져 있으므로 최적의 문턱 값을 비 디오에 따라 실험에 의해서 찾아낸 것이다. 이 문턱 값보다 작은 부분이 오버레이 텍스트 그래픽 영역 후보가 된다. 방 송에 사용된 오버레이 텍스트에는 대부분 투명 효과를 사 용하고 있으므로, 후보 영상에 모폴로지를 수행하여 오버 레이 텍스트 그래픽 영역 후보 마스크 영상을 얻었고, 최종 적으로 오버레이 텍스트 그래픽 영역이 100픽셀 100픽셀 보다 커다는 크기 특징을 이용하여 정제시킨 마스크 영상 을 추출했다. 표 1은 실험에서 사용된 비디오의 오버레이 텍스트 그래 픽 영역을 검출한 결과를 보여준다. 실험 1과 2는 스포츠, 실험 3은 뉴스, 실험 4는 예능, 실험 5는 교양 영상이다. 그 림 7~9는 오버레이 텍스트 그래픽 검출 과정에서 얻어진 단계별 결과 영상이다. 이를 분석해 보면, 오버레이 텍스트 가 배경이 되는 객체가 있거나 없는 경우에 따라서 결과가 확연히 다름을 알 수 있다. 또한 배경 객체의 투명도에 따라 서도 결과 차이가 많았다. 표 1을 자세히 분석해 보면, 실험 1과 2의 경우처럼 오버 레이 텍스트에 배경 객체가 있는 경우는 전부 다 찾을 수 있음을 나타낸다. 실험 3~5에는 찾아진 오버레이 그래픽의 수가 1~2개 적었다. 이는 배경이 되는 객체가 없는 오버레 이 텍스트는 찾아내지 못했음을 보여준다. 표 1의 5번째 열 추출된 오버레이 그래픽 픽셀 율은 실제 영상에서 차지하는 그래픽 픽셀과 이 논문에서 제안한 방 법으로 검출한 영상에서의 그래픽 픽셀과의 비이다. 이 값 은 배경 객체의 투명도에 따라 결과가 차이 남을 보여준다. 실험 1과 2는 투명도가 거의 없는 객체 위에 텍스트가 있는 경우이므로 오버레이 텍스트 그래픽 영역이 대부분 추출될 표 1. 오버레이 텍스트 그래픽 영역 검출 실험 결과 Table 1. The expermental results of overlay text graphc regon extracton Genre Overlay Graphc Ground Truth (ea) Detected Overlay Graphc (ea) Extracted Overlay Graphc (pxel rate) Threshold Value DC Threshold Value MA Test 1 Sports 2 2 0.846 19 3 Test 2 Sports 2 2 0.928 38 18 Test 3 News 4 3 0.724 18 18 Test 4 Entertanment 3 2 0.627 25 10 Test 5 Culture 3 1 0.160 11 2

방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) 568 수 있었다. 이와 달리 실험 3~5는 배경 객체에 투명도가 높 아서 영역 추출 결과가 좋지 않았다. 특히 실험 5의 경우는 배경 객체의 투명도가 높았을 뿐만 아니라 배경 객체 부분 에 텍스트가 없는 영역이 많아서 오버레이 텍스트 그래픽 영역의 추출 결과가 현저히 떨어짐을 보여주었다. 표 1에서 6과 7번째 열의 색 거리 DC 및 움직임 활동성 MA 의 문턱 값은 각 실험마다 최적의 값을 인위적으로 찾 아낸 결과이다. 이 논문은 실시간 작업이 아니라 후반 작업 에 적합하도록 제안했기 때문에 이 문턱 값들을 실험에서 가장 좋은 값을 찾아내었다. 실험 3을 제외하고는 색 거리 가 움직임 활동성 MA 보다 더 높은 값을 가진다. 오버 레이 텍스트 검출에 색 거리 DC 가 더 큰 영향력을 발휘했 음을 보여주었다. 실험 3은 뉴스 영상으로서 장면 변화 주 기가 다른 영상에 비해서 짧기 때문에 두 문턱 값이 동일하 게 나타났다. 그림 7~9는 실험에 사용된 영상에서 오버레이 텍스트 그 래픽 영역이 검출된 단계별 결과를 보여주고 있다. 표 1의 결과와 마찬가지로 오버레이 텍스트를 잘 보이는 효과를 위한 배경 객체가 있는 경우, 배경 객체의 투명도가 낮은 경우에 좋은 결과를 보여줌을 알 수 있다. 그리고 그림 8의 DC (a) (b) (c) (d) (e) 그림 7. 결과 영상 (a) 야구 비디오 시퀀스 (b) hst(dc)에 문턱 값을 적용한 결과 영상 (c) hst(ma)에 문턱 값을 적용한 결과 영상 (d) 모폴로지 연산을 수행한 오버레이 텍스트 영역 후보 마스크 영상 (e) 검출된 오버레이 텍스트 그래픽 영상 Fg. 7. Result mage (a) baseball vdeo sequence (b) result mage appled hst(dc) threshold value (c) result mage appled hst(ma) threshold value (d) overlay text regon canddated mask mage by morphology processng (e) overlay text graphc mage (a) (b) (c) (d) (e) 그림 8. 결과 영상 (a) 뉴스 비디오 시퀀스 (b) hst(dc)에 문턱 값을 적용한 결과 영상 (c) hst(ma)에 문턱 값을 적용한 결과 영상 (d) 모폴로지 연산을 수행한 오버레이 텍스트 영역 후보 마스크 영상 (e) 검출된 오버레이 텍스트 그래픽 영상 Fg. 8. Result mage (a) news vdeo sequence (b) result mage appled hst(dc) threshold value (c) result mage appled hst(ma) threshold value (d) overlay text regon canddated mask mage by morphology processng (e) overlay text graphc mage

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 569 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) (a) (b) (c) (d) (e) 그림 9. 결과 영상 (a) 예능 비디오 시퀀스 (b) hst(dc)에 문턱 값을 적용한 결과 영상 (c) hst(ma)에 문턱 값을 적용한 결과 영상 (d) 모폴로지 연산을 수행한 오버레이 텍스트 영역 후보 마스크 영상 (e) 검출된 오버레이 텍스트 그래픽 영상 Fg. 9. Result mage (a) entertanment vdeo sequence (b) result mage appled hst(dc) threshold value (c) result mage appled hst(ma) threshold value (d) overlay text regon canddated mask mage by morphology processng (e) overlay text graphc mage 경우에서처럼 텍스트를 위한 영역이 아닌 다른 용도의 그 래픽 영역도 추출됨을 알 수 있다. 이러한 용도의 오버레이 그래픽은 장애인 수화 방송을 위한 경우나 뉴스나 다큐 등 에서 인터뷰자의 얼굴을 보여주고자 하는 경우에 주로 사 용되는데, 배경 화면에 작은 화면을 삽입된다. 그러므로 기존의 오버레이 텍스트 그래픽이 부가된 2차 원 비디오를 3차원 스테레오 비디오로 변환할 때, 이 논문 에서 제안한 시나리오에 따라 처리하면 모든 그래픽 영역 을 원본 배경 영상과 분리할 수 있다. 그 결과 배경과 오버 레이 텍스트 그래픽의 상대적인 깊이를 조정할 수 있어 우 수한 품질의 2D-3D 변환 비디오를 만들 수 있음을 잘 보여 주고 있다. Ⅴ. 결 론 이 논문은 오버레이 텍스트 그래픽 영역이 있는 2차원 비디오를 3차원 스테레오 비디오로 변환할 때의 문제점을 제시하고 이를 해결할 수 있는 방법을 제안하였다. 특히, 이 시나리오의 첫 번째 단계로 오버레이 텍스트 그래픽 영 역을 검색하고 추출하는 방법에 대해서 논했다. 불필요한 연산 과정을 줄이기 위해서 비디오 프레임 내 오버레이 텍 스트의 존재 유무를 판단했고, 이를 위해서 해리스 코너에 기반 한 코너 밀도 맵을 사용한다. 다음 단계로 프레임 내에 서 여러 개의 오버레이 텍스트 영역을 검색하고 추출하기 위해서 색과 움직임 정보를 함께 이용한다. 그 결과 오버레 이 텍스트 그래픽 영역을 원본 배경 영상과 분리할 수 있고, 배경과 오버레이 텍스트 그래픽의 상대적인 깊이를 조정할 수 있게 된다. 이에 우수한 품질의 2D-3D 변환 비디오를 만들 수 있음을 잘 보여주고 있다. 향후 연구 과제는 색 거리와 움직임 활동성의 문턱 값 을 자동으로 구하여 실시간으로 적용할 수 있는 방법에 대 해서 연구할 필요가 있다. 또, 텍스트를 잘 보이게 하기 위 해서 사용되는 배경 객체의 투명도에 영향을 받지 않고 추 출할 수 있는 방법과 움직이는 오버레이 텍스트 그래픽을 검출할 수 있는 알고리듬을 개발할 것이다. 참 고 문 헌 [1] Wonjun Km and Changck Km, A new approach for overlay text detecton and extracton from complex vdeo scene, IEEE Transactons on Image Processng, VOL. 18, NO. 2, February 2009 [2] Haojn Yang, Bernhard and Harald Sack, A framework for mproved vde text detecton and recognton, Multmed Tools Appl, October 2012, DOI 10.1007/s11042-012-1250-6 [3] Juhyun Oh and Kwanghoon Sohn, Depth-aware character generator for 3DTV, IEEE Transactons on Broadcastng, VOL. 58, NO. 4, December 2012

570 방송공학회논문지 제18권 제4호, 2013년 7월 (JBE Vol. 18, No. 4, July 2013) [4] Zhujun Wang, Le Yang, Xaoyu Wu and Yng Zhang, A survey on vdeo capton extracton technology, Fourth Internatonal Conference on Multmeda Informaton Networkng and Securty, 2012 [5] Haw-Kwang Km, Effcent automatc text locaton method and content-based ndexng and structurng of vdeo database, Journal of Vsual Communcaton and Image Representaton, Vol. 7, No. 4, December, pp. 336-344, 1996, Artcle NO. 0029 [6] Ullas Garg, Sameer Antan, and Rangachar Kastur, Indexng text events n dgtal vdeo databases [7] Zhong J, Jan Wang, Yu-Tng Su, Text detecton n vdeo frames usng hybrd features, Proceedngs of the Eghth Internatonal Conference on Machne Learnng and Cybernetcs, July 2009 [8] Mchael A. Smth and Takeo Kanade, Vdeo skmmng for quck browsng based on audon and mage characterzaton, School of computer scence Carnege Mellon Unversty, PA 15213, July 30 1995 [9] Y. Lu, H. Lu, X. Xue, and YP. Tan, Effectve vdeo text detecton usng lne features, Proceedngs of the 8th Internatonal Conference on Control, Automaton, Robotcs and Vson, pp. 1528-1532, 2004 [10] P. Shvakumara, U. Pal, M. Blumensten, Lm Tan Chew, A new method for arbtrarly-orented text detecton n vdeo, DAS, 2012,3:74-78 [11] B. Ca, DR. Zhou, HB. Hu, Research and mplement on detecton and extracton of text n dgtal vdeo, Journal of Computer-Aded Desgn & Computer Graphcs, vol.15, 2003, pp.898-903 [12] D. Chen, J.M. Odobez and H. Bourlard, Text detecton and recognton n mages and vdeo frames, Pattern Recognton, pp. 595-608, 2004 [13] Kwang In Km, Keechul Jung, and Jn Hyung Km. Texture-based approach for text detecton n mages usng support vector machnes and contnuously adaptve mean shft algorthm, Pattern Analyss and Machne Intellgence.2003,25(12):1631-1639 [14] Z. J, J. Wang, and Yu-Tng Su, Text detecton n vdeo frames usng hybrd features, ICMLC, pp.318-322, 2009 [15] M. Anthmopoulos, B. Gatos, I. Pratkaks, A hybrd system for text detecton n vdeo frames, Document Analyss Systems, DAS, pp.286-292, 2008 [16] Q. Wang, LQ. Chen, X. Lang, Text extracton n vdeo, Computer Engneerng and Applcatons, vol.48, pp.177-178, 2012 [17] P. Shvakumara, S. Bhowmck, B. Su, C. L. Tan, U. Pal, A New gradent based character segmentaton method for vdeo text recognton, ICDAR, pp.126-130, 2011 [18] L. N. Sun, L. Y. Fan, Vdeo text detecton, locaton and extracton, Electronc Technology, vol.22, pp.75-79, 2009 [19] SY. Lu, ZL. Cao, Sngle frame characters extracton n complex chromatc mage, JOURNAL OF TIANJIN UNIVERSITY OF TECHNOLOGY. vol.23, pp.58-61, 2007 [20] Ahmet Ekn and Radu Jasnsch, Temporal detecton and processng of transparent overlays for vdeo ndexng and enhancement, EUSIPCO 2005 [21] 김원준(Wonjun Km), 해리스 코너 검출기를 이용한 비디오 자막 영역 추출(Text regon extracton from vdeos usng the Harrs corner detector), 정보과학회 소프트웨어 및 응용-시각정보처리(Vsual Informaton Processng), Vol, 34, No. 7, July 2007 [22] Hang-Cha Shh and Chung-Ln Huang, Content extracton and nterpretaton of supermposed captons for broadcasted sports vdeo, IEEE Transactons on Broadcastng, VOL. 54, NO. 3, September 2008 [23] http://w w w.sam sung.com/sec/consumer/tv-vdeo/tv/led-tv/ UN40F6100AF-features [24] http://www.lge.co.kr/lgekr/product/detal/lgekr ProductDetalCmd. laf?prdd=eprd.246678 저 자 소 개 이 상 희 - 1994년 2월 : 경북대학교 전자공학과 졸업(공학사) - 2009년 2월 : 울산대학교 자동차선박기술대학원 메카트로닉스/IT전공 졸업(공학석사) - 2010년 3월 ~ 현재 : 울산대학교 전기공학부 전기전자공학전공 박사과정 - 1997년 4월 ~ 현재 : 울산방송(ubc) - 주관심분야 : 디지털멀티미디어, 디지털 방송시스템, 2D/3D 영상처리, 컴퓨터 비전(CV) 박 한 성 - 2012년 8월 : 울산대학교 전기전자제어공학과 졸업(공학사) - 2012년 8월 ~ 현재 : 울산대학교 전기공학부 전기전자공학전공 석사과정 - 주관심분야 : 컴퓨터 비전(CV), 사람과 컴퓨터의 상호작용(HCI), 증강 현실, 지능시스템

이상희 외 4인 : 비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 571 (Sanghee Lee et al. : Overlay Text Graphc Regon Extracton for Vdeo Qualty Enhancement Applcaton) 저 자 소 개 안 정 일 - 1988년 2월 : 경북대학교 전자공학과 졸업(공학사) - 1991년 8월 : 경북대학교 전자공학과 졸업(공학석사) - 2007년 3월 ~ 현재 : 경북대학교 전자공학과 박사과정 - 1991년 11월 ~ 1995년 3월 : LG전자 영상미디어 연구소 HDTV팀 - 1995년 4월 ~ 1997년 8월 : 현대방송 - 1997년 8월 ~ 현재 : 울산방송(ubc) - 주관심분야 : 디지털방송시스템, 2D/3D 영상처리 온 영 상 - 2008년 3월 : 울산대학교 자동차선박기술대학원 메카트로닉스/IT전공 석사과정 - 1997년 8월 ~ 현재 : 울산방송(ubc) - 주관심분야 : 디지털방송시스템, 2D/3D 영상처리 조 강 현 - 1989년 : 부산대학교 정밀기계공학과 졸업(공학사) - 1993년 : 일본 Osaka대학 대학원 전자제어기계공학전공 졸업(공학석사) - 1997년 : 일본 Osaka대학 대학원 전자제어기계공학전공 졸업(공학박사) - 1997년 ~ 1998년 : ETRI 시스템공학연구소 포스트 닥터 연구원 - 1998년 ~ 현재 : 울산대학교 전기공학부 전기전자공학전공 교수 - 현재 : IEEE, IEICE, ICROS, IEEK, KIISE, KIPS, KSAE, KRS, KSBE 등 정회원 및 이사 역임 - 주관심분야 : 컴퓨터 비전(CV), 사람과 컴퓨터의 상호작용(HCI), 지능시스템 연구(IS)