1 : (Eunyul Kim et al.: Video Highlight Prediction Using Multiple Time-Interval Information of Chat and Audio) (Special Paper) 24 4, (JBE Vol.

Similar documents
(JBE Vol. 22, No. 2, March 2017) (Regular Paper) 22 2, (JBE Vol. 22, No. 2, March 2017) ISSN

09권오설_ok.hwp

(JBE Vol. 21, No. 1, January 2016) (Regular Paper) 21 1, (JBE Vol. 21, No. 1, January 2016) ISSN 228

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 10, Oct ,,. 0.5 %.., cm mm FR4 (ε r =4.4)

2 : (JEM) QTBT (Yong-Uk Yoon et al.: A Fast Decision Method of Quadtree plus Binary Tree (QTBT) Depth in JEM) (Special Paper) 22 5, (JBE Vol. 2

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Nov.; 26(11),

08김현휘_ok.hwp

(JBE Vol. 23, No. 5, September 2018) (Regular Paper) 23 5, (JBE Vol. 23, No. 5, September 2018) ISSN

(JBE Vol. 23, No. 2, March 2018) (Special Paper) 23 2, (JBE Vol. 23, No. 2, March 2018) ISSN

High Resolution Disparity Map Generation Using TOF Depth Camera In this paper, we propose a high-resolution disparity map generation method using a lo

2 : 3 (Myeongah Cho et al.: Three-Dimensional Rotation Angle Preprocessing and Weighted Blending for Fast Panoramic Image Method) (Special Paper) 23 2

(JBE Vol. 24, No. 1, January 2019) (Special Paper) 24 1, (JBE Vol. 24, No. 1, January 2019) ISSN 2287-

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 6, Jun Rate). STAP(Space-Time Adaptive Processing)., -

(JBE Vol. 23, No. 1, January 2018) (Special Paper) 23 1, (JBE Vol. 23, No. 1, January 2018) ISSN 2287-

3 : 3D (Seunggi Kim et. al.: 3D Depth Estimation by a Single Camera) (Regular Paper) 24 2, (JBE Vol. 24, No. 2, March 2019)

<30312DC1A4BAB8C5EBBDC5C7E0C1A4B9D7C1A4C3A52DC1A4BFB5C3B62E687770>

DBPIA-NURIMEDIA

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Dec.; 27(12),

2 : (Juhyeok Mun et al.: Visual Object Tracking by Using Multiple Random Walkers) (Special Paper) 21 6, (JBE Vol. 21, No. 6, November 2016) ht

1 : 360 VR (Da-yoon Nam et al.: Color and Illumination Compensation Algorithm for 360 VR Panorama Image) (Special Paper) 24 1, (JBE Vol. 24, No

Software Requirrment Analysis를 위한 정보 검색 기술의 응용

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jun.; 27(6),

3 : (Won Jang et al.: Musical Instrument Conversion based Music Ensemble Application Development for Smartphone) (Special Paper) 22 2, (JBE Vol

1 : UHD (Heekwang Kim et al.: Segment Scheduling Scheme for Efficient Bandwidth Utilization of UHD Contents Streaming in Wireless Environment) (Specia

À±½Â¿í Ãâ·Â

(JBE Vol. 23, No. 2, March 2018) (Special Paper) 23 2, (JBE Vol. 23, No. 2, March 2018) ISSN

2 : (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, (JBE

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jun.; 27(6),

(JBE Vol. 23, No. 6, November 2018) (Special Paper) 23 6, (JBE Vol. 23, No. 6, November 2018) ISSN 2

14.531~539(08-037).fm

DBPIA-NURIMEDIA

07변성우_ok.hwp

김기남_ATDC2016_160620_[키노트].key

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jul.; 27(7),

<353420B1C7B9CCB6F52DC1F5B0ADC7F6BDC7C0BB20C0CCBFEBC7D120BEC6B5BFB1B3C0B0C7C1B7CEB1D7B7A52E687770>

(JBE Vol. 23, No. 1, January 2018). (VR),. IT (Facebook) (Oculus) VR Gear IT [1].,.,,,,..,,.. ( ) 3,,..,,. [2].,,,.,,. HMD,. HMD,,. TV.....,,,,, 3 3,,

???? 1

1 : (Sunmin Lee et al.: Design and Implementation of Indoor Location Recognition System based on Fingerprint and Random Forest)., [1][2]. GPS(Global P

2 : (Jaeyoung Kim et al.: A Statistical Approach for Improving the Embedding Capacity of Block Matching based Image Steganography) (Regular Paper) 22

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Dec.; 26(12),

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Mar.; 28(3),

04 최진규.hwp

DBPIA-NURIMEDIA

02손예진_ok.hwp

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Mar.; 25(3),

4 : WebRTC P2P DASH (Ju Ho Seo et al.: A transport-history-based peer selection algorithm for P2P-assisted DASH systems based on WebRTC) (Special Pape

(JBE Vol. 24, No. 2, March 2019) (Special Paper) 24 2, (JBE Vol. 24, No. 2, March 2019) ISSN

Journal of Educational Innovation Research 2018, Vol. 28, No. 1, pp DOI: * A Analysis of

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Feb.; 29(2), IS

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>

DBPIA-NURIMEDIA

DBPIA-NURIMEDIA

DBPIA-NURIMEDIA

19_9_767.hwp

<31372DB9DABAB4C8A32E687770>

3 : ATSC 3.0 (Jeongchang Kim et al.: Study on Synchronization Using Bootstrap Signals for ATSC 3.0 Systems) (Special Paper) 21 6, (JBE Vol. 21

(JBE Vol. 23, No. 5, September 2018) (Regular Paper) 23 5, (JBE Vol. 23, No. 5, September 2018) ISSN

03-서연옥.hwp

(JBE Vol. 24, No. 1, January 2019) (Regular Paper) 24 1, (JBE Vol. 24, No. 1, January 2019) ISSN 2287

<30312DC1A4BAB8C5EBBDC5C7E0C1A4B9D7C1A4C3A528B1E8C1BEB9E8292E687770>

3. 클라우드 컴퓨팅 상호 운용성 기반의 서비스 평가 방법론 개발.hwp

04 김영규.hwp

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Sep.; 30(9),

4 : (Hyo-Jin Cho et al.: Audio High-Band Coding based on Autoencoder with Side Information) (Special Paper) 24 3, (JBE Vol. 24, No. 3, May 2019

04김호걸(39~50)ok

<35335FBCDBC7D1C1A42DB8E2B8AEBDBAC5CDC0C720C0FCB1E2C0FB20C6AFBCBA20BAD0BCAE2E687770>

(JBE Vol. 22, No. 5, September 2017) (Special Paper) 22 5, (JBE Vol. 22, No. 5, September 2017) ISSN

232 도시행정학보 제25집 제4호 I. 서 론 1. 연구의 배경 및 목적 사회가 다원화될수록 다양성과 복합성의 요소는 증가하게 된다. 도시의 발달은 사회의 다원 화와 밀접하게 관련되어 있기 때문에 현대화된 도시는 경제, 사회, 정치 등이 복합적으로 연 계되어 있어 특

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jun; 26(6),

<C7A5C1F620BEE7BDC4>

DBPIA-NURIMEDIA

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jul.; 27(7),

05( ) CPLV12-04.hwp

2 : MMT QoS (Bokyun Jo et al. : Adaptive QoS Study for Video Streaming Service In MMT Protocol). MPEG-2 TS (Moving Picture Experts Group-2 Transport S

Analysis of objective and error source of ski technical championship Jin Su Seok 1, Seoung ki Kang 1 *, Jae Hyung Lee 1, & Won Il Son 2 1 yong in Univ

09È«¼®¿µ 5~152s

°í¼®ÁÖ Ãâ·Â

Lumbar spine

07.045~051(D04_신상욱).fm


04_이근원_21~27.hwp

(JBE Vol. 20, No. 5, September 2015) (Special Paper) 20 5, (JBE Vol. 20, No. 5, September 2015) ISS

1217 WebTrafMon II

???? 1

878 Yu Kim, Dongjae Kim 지막 용량수준까지도 멈춤 규칙이 만족되지 않아 시행이 종료되지 않는 경우에는 MTD의 추정이 불가 능하다는 단점이 있다. 최근 이 SM방법의 단점을 보완하기 위해 O Quigley 등 (1990)이 제안한 CRM(Continu

ez-shv manual

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jan.; 26(1),

Journal of Educational Innovation Research 2018, Vol. 28, No. 4, pp DOI: * A S

4 : CNN (Sangwon Suh et al.: Dual CNN Structured Sound Event Detection Algorithm Based on Real Life Acoustic Dataset) (Regular Paper) 23 6, (J

(JBE Vol. 23, No. 1, January 2018) (Regular Paper) 23 1, (JBE Vol. 23, No. 1, January 2018) ISSN 2287

Journal of Educational Innovation Research 2019, Vol. 29, No. 1, pp DOI: (LiD) - - * Way to

DBPIA-NURIMEDIA

Analyses the Contents of Points per a Game and the Difference among Weight Categories after the Revision of Greco-Roman Style Wrestling Rules Han-bong

03 장태헌.hwp

디지털포렌식학회 논문양식

06_ÀÌÀçÈÆ¿Ü0926

<5B D B3E220C1A634B1C720C1A632C8A320B3EDB9AEC1F628C3D6C1BE292E687770>

<B9CCB5F0BEEEB0E6C1A6BFCDB9AEC8AD5F31322D32C8A35FBABBB9AE5FC3CAC6C731BCE25F6F6B5F E687770>

KCC2011 우수발표논문 휴먼오피니언자동분류시스템구현을위한비결정오피니언형용사구문에대한연구 1) Study on Domain-dependent Keywords Co-occurring with the Adjectives of Non-deterministic Opinion

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Nov.; 28(11),

Transcription:

1: (Special Paper) 24 4, 2019 7 (JBE Vol. 24, No. 4, July 2019) https://doi.org/10.5909/jbe.2019.24.4.553 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) a), a) Video Highlight Prediction Using Multiple Time-Interval Information of Chat and Eunyul Kim a) and Gyemin Lee a).. LSTM.. e,. Abstract As the number of videos uploaded on live streaming platforms rapidly increases, the demand for providing highlight videos is increasing to promote viewer experiences. In this paper, we present novel methods for predicting highlights using chat logs and audio data in videos. The proposed models employ bi-directional LSTMs to understand the contextual flow of a video. We also propose to use the features over various time-intervals to understand the mid-to-long term flows. The proposed Our methods are demonstrated on e-sports and baseball videos collected from personal broadcasting platforms such as Twitch and Kakao TV. The results show that the information from multiple time-intervals is useful in predicting video highlights. Keyword : Video highlight, Multiple time-interval models, Bi-directional LSTM, Chat logs, a) IT (Dept. of BroadcastingCommunication Fusion Program, Graduate School of Nano IT Design Fusion, Seoul National University of Science and Technology) Corresponding Author : (Gyemin Lee) E-mail: gyemin@seoultech.ac.kr Tel: +82-2-970-6416 ORCID: https://orcid.org/0000-0001-6785-8739 IPIU 2019.. This study was supported by the Research Program of Seoul National University of Science and Technology. Manuscript received April 30, 2019; Revised July 5, 2019; Accepted July 5, 2019. Copyright 2016 Korean Institute of Broadcast and Media Engineers. All rights reserved. This is an Open-Access article distributed under the terms of the Creative Commons BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited and not altered.

554 방송공학회논문지 제24권 제4호, 2019년 7월 (JBE Vol. 24, No. 4, July 2019) Ⅰ. 서 론 최근 Afreeca TV, Kakao TV, Youtube와 같은 개인방송 플랫폼을 보는 사람들이 증가하면서 축구와 야구 같은 스 포츠부터 e스포츠까지 이들 플랫폼을 통해 중계하는 경우 가 늘어나고 있다. 이와 같은 경기 영상들은 대체로 길이가 길기 때문에 시청자의 편의를 위해 경기의 주최자나 중계 자는 하이라이트 영상을 제작하여 제공하기도 한다. 하지 만 하이라이트 영상을 제작하기 위해서는 전문적인 편집 기술과 장비가 필요하고 시간과 비용이 많이 소요되는 문 제가 있다. 이에 본 논문에서는 영상에서 하이라이트의 위 치를 자동으로 예측하는 방법을 제안한다. 그림 1에서 보이는 것과 같이 대다수의 개인방송 플랫폼은 영상과 채팅이 함께 화면에 자리하며 시청자들은 채팅창에 서 영상에 대한 의견을 함께 나눌 수 있다. 특히 다수의 시청 자가 흥미를 느끼는 부분에서는 채팅창에서도 활발한 의견 교류가 이루어진다. 이러한 경향은 채팅 내역이 하이라이트 예측에 유용할 수 있음을 의미한다. 또한 경기가 진행됨에 따라 해설자와 관중들은 환호하거나 탄식하면서 반응을 하 므로 오디오 역시 영상의 흐름을 파악하는데 중요한 단서를 제공한다고 볼 수 있다. 우리는 이러한 점을 이용하여 채팅과 오디오를 하이라이트 예측에 사용하는 방법을 제시한다. 하이라이트를 추출하는데 있어 고려해야할 또 하나의 사 항은 콘텐츠의 특성에 따라 다른 흐름을 보일 수 있다는 것이 다. 즉, 콘텐츠의 종류에 따라 한 이벤트가 미치는 영향의 시 간적 길이는 차이를 보일 수 있다. 예를 들어, e스포츠의 경우 는 대게 경기가 빠른 속도로 진행되어 현재 발생한 이벤트의 중요도는 즉각적인 전후관계를 파악함으로 판단할 수 있다. 하지만 축구나 야구와 같은 전통 스포츠 경기에서는 대체로 현재 발생한 이벤트가 득점으로 이어지는지 파악하기 위해 서는 중장기적인 흐름을 파악할 필요가 있다. 이에 본 논문은 여러 길이의 시간 정보를 함께 이용하는 다중 시구간 모델을 제안한다. 제안하는 모델은 실제 개인방송 플랫폼에서 중계 된 e스포츠와 야구경기 영상을 이용해 평가한다. Ⅱ. 관련 연구 영상을 요약하거나 하이라이트를 예측하는 방법에 관한 많은 연구가 이루어지고 있다. 대부분의 연구는 영상의 시 각적 정보를 이용하는데 초점을 맞추고 있다. [3]은 영상을 짧은 길이의 세그먼트로 구분하고 세그먼트끼리 비교하여 하이라이트에 포함될 점수를 매긴 후, 점수가 높을 세그먼 트를 하이라이트로 분류하는 방법을 설명한다. Tang 등은 영상을 클립 단위로 나눈 다음 각 클립이 하이라이트인지 판단하기 위해 low-level 시각적 특징(색상 히스토그램과 HOG)을 기반으로 한 이벤트 통계를 추출하는 방법을 제안 하였다. Szegedy 등은 CNN 을 이용해 영상으로부터 시 각적 특징을 추출한 후 LSTM(Long Short-Term Memory) 을 사용해 하이라이트를 찾는 방법을 보였다. 한편 Xiong 등은 스포츠 비디오는 특정 장면에서 관객들 의 함성이 크다는 특징에 주목하여 음향정보를 이용해 하 이라이트를 찾는 방법을 제안한다. 최근에는 자연어 처리 방법을 이용하여 영상을 분석하는 연구도 늘어나고 있다. [8]은 스포츠 영상의 특정 이벤트를 찾기 위해 트위터의 트 윗을 이용하는 방법을 설명하였다. 또한 [9]와 [10]은 시간 동기된 코멘트를 이용하여 하이라이트를 검출하였는데, 각 각 토핑 모델과 concept-emotion mapping 방법을 사용하여 그림 1. 개인방송 플랫폼 구성 (좌: Twitch[1], 우: Kakao TV[2]) [4] Fig. 1. Examples of live streaming platforms (left: Twitch[1], right: Kakao TV[2]) [5] [6] [7]

1:.. [11], [12] LSTM..... Single Time Interval Model(STIM)., Multiple Time Interval Model(MTIM),. 1.. FastText [13], MFCC (Mel Frequency Cepstral Coefficient) [14]. FastText word2vec [15]. FastText (, 1) 300... MFCC., 1, 20..,. 2. STIM 2. STIM Fig. 2. Single Time Interval Model(STIM)

(JBE Vol. 24, No. 4, July 2019). LSTM [16]. LSTM..,. STIM, LSTM... 1. Algorithm 1. STIM Input: feature 1: 2: Output: highlight score BiLSTM LSTM LSTM LSTM.... 3. MTIM..,. MTIM. 3 MTIM. (, 1) LSTM., (, 2) LSTM.,., 1, 2, 120.. MLP(Multi Layer Perception) 2... 3. MTIM Fig. 3. Multiple Time Interval Model(MTIM)

1:. 2. Algorithm 2. MTIM Input: short-term feature, long-term feature 1: 2: 3: 4: Output: highlight score 4... 4(a) STIM, 4(b) MTIM. M-STIM(Multimodal-Single Time Interval Model), M- MTIM(Multimodal-Multiple Time Interval Model). STIM MTIM. 4(a) 2 STIM. M-STIM LSTM, MLP. 3. Algorithm 3. M-STIM Input: chat feature, audio feature 1: 2: 3: 4: Output: highlight score 4(b) short term long term 4(a). M-MTIM LSTM LSTM MTIM MLP ( 4). Algorithm 4. M-MTIM Input: short-term chatting feature, long-term chatting feature, short-term audio feature, long-term audio feature 1: 2: 3: 4: 5: 6: Output: highlight score (a) (b) 4.. (a) M-STIM, (b) M-MTIM Fig. 4. Highlight prediction models using multimodal data. (a) M-STIM, (b) M-MTIM

(JBE Vol. 24, No. 4, July 2019).. e. Twitch Kakao TV. (ground truth). F. F (precision) (recall). ground truth.. MLP. MLP. MLP 2,. 1. e e 2017 Twitch League of Legends 5LoL 2017, IEM 2017, 2017 LoL, 2017 LoL, 2017 LoL 63. 2017 LoL 2017 LoL 7. e OGN, ground truth. 35, 10%. 10%. 63 1. e 1. e Table 1. Summary of e-sports and baseball datasets Type Statistics Video length (sec) Total number of chats Number of chats per second Length of highlights (sec) Highlight ratio (%) e-sports Baseball mean (±std) 2,096.76 (±599.10) 6,429.49 (±4,216.18) 3.08 (±1.92) 213.27 (±70.99) 10.55 (±3.78) max 47,850 14,145 5.96 469 22.30 min 1,483 2,495 1.22 146 9.84 mean (±std) 12,175.39 (±1,176.13) 15,572.32 (±4,216.18) 1.27 (±0.38) 599.25 (±225.34) 4.95 (±1.93) max 14,866 24,796 1.98 1,361 12.59 min 9,909 5,562 0.53 76 0.61

1: (a) Ground truth (b) STIM (chat) (c) STIM (audio) (d) M-STIM (chat and audio) 5. e ( :, : ) Fig. 5. Experiment results on an e-sports test video (blue: highlight locations, red: highlight score) STIM. 5. 1, 0. 5(b) 5(c) ground truth 5(a) 230. M-STIM 5(d) 5(a). 7 2. MLP. LSTM. MLP,.... MLP.,. STIM F 44.99 63.19. M-STIM 65.64.,.

(JBE Vol. 24, No. 4, July 2019) 2. e 7 Table 2. Experiment results on e-sports data Data type Model Precision Recall F Chat Chat + MLP 12.71 15.59 13.92 STIM 49.36 41.69 44.99 MLP 42.63 50.97 46.17 STIM 69.58 58.44 63.19 MLP 33.17 39.39 35.83 Simple STIM 66.23 55.54 60.09 M-STIM 71.96 60.90 65.64 (simple STIM). M-STIM LSTM. 2. Simple STIM F 60.09, M-STIM 65.64 M-STIM. M-STIM. 2. 2018 4 5 Kakao TV 28. 5 ground truth. 3 20, 5% 10., (a) Ground truth (b) STIM (chat) (c) STIM (audio) (d) M-STIM (chat and audio) (e) M-MTIM (chat and audio) 6. (2000~4000, :, : ) Fig. 6. Experiment results on a baseball video (2000~4000sec, blue: locations of highlights, red: highlight score)

1:. 28 1. 6 (2000~4000). 6(b) 6(c) 2740 3090, 3400,. M-STIM 6(d) 6(a). M-MTIM 6(e) 6(c) 2250 3340 ground truth. 3 5. e MLP. 3 MLP F 30.. STIM, 30.59, 45.84. M-STIM F 47.20,. 3.. M-MTIM 51.48.. 3. 5 Table 3. Experiment results on baseball data Data type Model Precision Recall F Chat Chat + Model MLP 29.79 13.11 18.16 STIM 29.20 32.32 30.59 MTIM 30.09 32.74 31.28 MLP 43.71 19.20 26.60 STIM 43.23 49.17 45.84 MTIM 46.25 53.01 49.23 MLP 32.56 14.30 19.81 Simple STIM 41.94 47.42 44.33 M-STIM 44.48 50.64 47.20 M-MTIM 48.57 55.20 51.48 4. F Table 4. F scores evaluated for various long-term intervals Long term interval Chat Chat + STIM - 30.59 45.84 47.20 MTIM 1min 20.02 43.63 48.55 2min 21.32 47.84 51.48 3min 22.22 44.94 45.88 4min 19.50 49.23 48.36 5min 23.26 48.54 46.33 6min 31.28 47.60 48.86 7min 20.60 48.20 47.99 3. MTIM MTIM. 1. 4.,

(JBE Vol. 24, No. 4, July 2019) 2 M-MTIM F. 1 2.. 6, 4.. 4..... LSTM.,..,... (References) [1] Twitch, https://www.twitch.tv/ (accessed Mar. 08, 2019). [2] Kakao TV, https://tv.kakao.com/ (accessed Mar. 08, 2019). [3] M. Sun, A. Farhadi, and S. Seitz, Ranking Domain -specific Highlights by Analyzing Edited Videos, European Conference on Computer Vision, Zurich, Switzerland, pp. 708-802, 2014, doi:10.1007/978-3-319-10590-1_51. [4] H. Tang, V. Kwatra, ME. Sargin, and U. Gargi, "Detecting highlights in sports videos: Cricket as a test case," IEEE International Conference on Multimedia and Expo, Barcelona, Spain, pp. 16, 2011, doi:10.1109/icme.2011.6012139. [5] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, Going deeper with convolutions, The IEEE Conference on Computer Vision and Pattern Recognition, Boston, Massachusetts, pp. 1-9, 2015, doi: 10.1109/ CVPR.2015.7298594. [6] K. Zhang, WL. Chao, F. Sha, and K. Grauman, Video Summarization with Long Short-term Memory, European Conference on Computer Vision, Amsterdam, Netherlands, pp. 766-782, 2016, doi:10.1007/ 978-3-319-46478-7_47. [7] Z. Xiong, R. Radhakrishnan, A. Divakaran, and TS. Huang, Highlights extraction from sports video based on an audio-visual marker detection framework, IEEE International Conference on Multimedia and Expo, Amsterdam, Netherlands, pp. 29-32, 2005, doi:10.1109/icme.2005.1521352. [8] LC. Hsieh, CW. Lee, TH. Chiu, and W. Hsu, Live semantic sport highlight detection based on analyzing tweets of twitter, IEEE International Conference on Multimedia and Expo, Melbourne, Australia, pp. 949-954, 2012, doi:10.1109/icme.2012.135. [9] J. Li, Z. Liao, C. Zhang, and J. Wang, Event Detection on Online Videos using Crowdsourced Time-Sync Comment, International Conference on Cloud Computing and Big Data, Macau, China, pp. 52-57, 2016, doi:10.1109/ccbd.2016.021. [10] Q. Ping, C. Chen, Video Highlights Detection and Summarization with Lag-Calibration based on Concept-Emotion Mapping of Crowd-sourced Time-Sync Comments, Empirical Methods in Natural Language Processing, Copenhagen, Denmark, pp. 1-11, 2017, doi:10.18653/v1/w17-4501. [11] E. Kim, G. Lee, "Highlight Detection in Personal Broadcasting by Analysing Chat Traffic : Game Contests as a Test Case," Journal of Broadcast Engineering, Vol.23, No.2, pp.218-226, 2018, doi: http://dx.doi.org/10.5909/jbe.2018.23.2.218. [12] CY. Fu, J. Lee, M. Bansal, and AC. Berg, Video Highlight Prediction Using Audience Chat Reactions, Empirical Methods in Natural Language Processing, Copenhagen, Denmark, pp. 972-978, 2017. [13] A. Joulin, E. Grave, P. Bojanowski, and T. Mikolov, Bag of Tricks for Efficient Text Classification, European Chapter of the Association for Computational Linguistics, Valencia, Spain, pp. 427-431, 2016, doi:10.18653/v1/e17-2068. [14] S. Davis, P.Mermelstein, Comparison of Parametric Representations for Monosyllabic Word Recognition in Continuously Spoken

김은율 외 명 채팅과 오디오의 다중 시구간 정보를 이용한 영상의 하이라이트 예측 563 1 : Sentences, IEEE Transactions on Acoustics, Speech, and Signal Processing, Vol.28, No.4, pp.357-366, 1980, doi:https://doi.org/ 10.1109/tassp.1980.1163420. [15] T. Mikolov, K. Chen, G. Corrado, and J. Dean. Efficient Estimation of Word Representations in Vector Space, Journal of Biomedical Science and Engineering, Vol.9, No.1, pp.7-16 2016 [16] S. Hochreiter, J. Schmidhuber, Long short-term Memory, Neural Computation, Vol.9, No.8, pp.1735-1780, 1997, doi:10.1162/neco. 1997.9.8.1735. 저자소개 김은율 년 서울과학기술대학교 전자 미디어공학과 학사 년 현재 서울과학기술대학교 나노 디자인융합대학원 정보통신미디어공학전공 석사과정 주관심분야 머신러닝 딥러닝 신호처리 - 2017 : IT - 2017 ~ : IT - ORCID : https://orcid.org/0000-0001-9023-7834 :,, 이계민 - 년 : 서울대학교 전기공학부 학사 년 : University of Michigan EECS 석사 년 : University of Michigan EECS 박사 년 ~ 2012년 : University of MichiganResearch Fellow 년 ~ 현재 : 서울과학기술대학교 전자IT미디어공학과 부교수 : https://orcid.org/0000-0001-6785-8739 주관심분야 : 머신러닝, 신호처리, 의료정보학 2001 2007 2011 2011 2013 ORCID