Journal of Convergence for Information Technology Vol. 11. No. 3, pp. 7-13, 2021 e-issn DOI :

Similar documents
<4D F736F F D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5>

DBPIA-NURIMEDIA

09권오설_ok.hwp

인문사회과학기술융합학회

<352EC7E3C5C2BFB55FB1B3C5EBB5A5C0CCC5CD5FC0DABFACB0FAC7D0B4EBC7D02E687770>

09구자용(489~500)

2 : (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, (JBE

04김호걸(39~50)ok

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 6, Jun Rate). STAP(Space-Time Adaptive Processing)., -

<B9CCB5F0BEEEB0E6C1A6BFCDB9AEC8AD5F31322D32C8A35FBABBB9AE5FC3CAC6C731BCE25F6F6B5F E687770>

DBPIA-NURIMEDIA

DBPIA-NURIMEDIA

Electronics and Telecommunications Trends 인공지능을이용한 3D 콘텐츠기술동향및향후전망 Recent Trends and Prospects of 3D Content Using Artificial Intelligence Technology

°í¼®ÁÖ Ãâ·Â

<35335FBCDBC7D1C1A42DB8E2B8AEBDBAC5CDC0C720C0FCB1E2C0FB20C6AFBCBA20BAD0BCAE2E687770>

(JBE Vol. 21, No. 1, January 2016) (Regular Paper) 21 1, (JBE Vol. 21, No. 1, January 2016) ISSN 228

년AQM보고서_Capss2Smoke-자체.hwp

(JBE Vol. 23, No. 2, March 2018) (Special Paper) 23 2, (JBE Vol. 23, No. 2, March 2018) ISSN

09È«¼®¿µ 5~152s

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Nov.; 26(11),

433대지05박창용

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jul.; 29(7),

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. vol. 29, no. 10, Oct ,,. 0.5 %.., cm mm FR4 (ε r =4.4)

High Resolution Disparity Map Generation Using TOF Depth Camera In this paper, we propose a high-resolution disparity map generation method using a lo

02ÇãÀÎÇý ~26š

DBPIA-NURIMEDIA

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Mar.; 30(3),

딥러닝 첫걸음

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Nov.; 28(11),

김경재 안현철 지능정보연구제 17 권제 4 호 2011 년 12 월

Analysis of objective and error source of ski technical championship Jin Su Seok 1, Seoung ki Kang 1 *, Jae Hyung Lee 1, & Won Il Son 2 1 yong in Univ

지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>

14.531~539(08-037).fm

DBPIA-NURIMEDIA

(JBE Vol. 23, No. 2, March 2018) (Special Paper) 23 2, (JBE Vol. 23, No. 2, March 2018) ISSN

???? 1

DBPIA-NURIMEDIA

1. KT 올레스퀘어 미디어파사드 콘텐츠 개발.hwp

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Dec.; 27(12),

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Mar.; 25(3),

<353420B1C7B9CCB6F52DC1F5B0ADC7F6BDC7C0BB20C0CCBFEBC7D120BEC6B5BFB1B3C0B0C7C1B7CEB1D7B7A52E687770>

08김현휘_ok.hwp

유해중금속안정동위원소의 분석정밀 / 정확도향상연구 (I) 환경기반연구부환경측정분석센터,,,,,,,, 2012

6.24-9년 6월

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Sep.; 30(9),

(JBE Vol. 23, No. 5, September 2018) (Special Paper) 23 5, (JBE Vol. 23, No. 5, September 2018) ISSN

04_이근원_21~27.hwp

Journal of Educational Innovation Research 2017, Vol. 27, No. 4, pp DOI: A Study on the Opti

03이경미(237~248)ok

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Feb.; 29(2), IS

본문

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

The characteristic analysis of winners and losers in curling: Focused on shot type, shot accuracy, blank end and average score SungGeon Park 1 & Soowo

<C7A5C1F620BEE7BDC4>

???? 1

exp

44-4대지.07이영희532~

264 축되어 있으나, 과거의 경우 결측치가 있거나 폐기물 발생 량 집계방법이 용적기준에서 중량기준으로 변경되어 자료 를 활용하는데 제한이 있었다. 또한 1995년부터 쓰레기 종 량제가 도입되어 생활폐기물 발생량이 이를 기점으로 크 게 줄어들었다. 그러므로 1996년부

Introduction to Deep learning

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jun.; 27(6),

DBPIA-NURIMEDIA

Journal of Educational Innovation Research 2018, Vol. 28, No. 1, pp DOI: * A Analysis of

<31372DB9DABAB4C8A32E687770>

<313920C0CCB1E2BFF82E687770>

Ch 1 머신러닝 개요.pptx

서강대학교 기초과학연구소대학중점연구소 심포지엄기초과학연구소

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Sep.; 26(10),

(JBE Vol. 22, No. 2, March 2017) (Regular Paper) 22 2, (JBE Vol. 22, No. 2, March 2017) ISSN

<4D F736F F D20C3D6BDC C0CCBDB4202D20BAB9BBE7BABB>

<352E20BAAFBCF6BCB1C5C320B1E2B9FDC0BB20C0CCBFEBC7D120C7D1B1B920C7C1B7CEBEDFB1B8C0C720B5E6C1A1B0FA20BDC7C1A120BCB3B8ED D2DB1E8C7F5C1D62E687770>

DBPIA-NURIMEDIA

09이훈열ok(163-

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jul.; 27(7),

DBPIA-NURIMEDIA

Journal of Educational Innovation Research 2017, Vol. 27, No. 3, pp DOI: (NCS) Method of Con

04 최진규.hwp

139~144 ¿À°ø¾àħ

歯1.PDF

Journal of Educational Innovation Research 2018, Vol. 28, No. 4, pp DOI: * A S

<B8F1C2F72E687770>


untitled

에너지경제연구 Korean Energy Economic Review Volume 17, Number 2, September 2018 : pp. 1~29 정책 용도별특성을고려한도시가스수요함수의 추정 :, ARDL,,, C4, Q4-1 -

R을 이용한 텍스트 감정분석

디지털포렌식학회 논문양식

<30312DC1A4BAB8C5EBBDC5C7E0C1A4B9D7C1A4C3A528B1E8C1BEB9E8292E687770>

조사연구 권 호 연구논문 한국노동패널조사자료의분석을위한패널가중치산출및사용방안사례연구 A Case Study on Construction and Use of Longitudinal Weights for Korea Labor Income Panel Survey 2)3) a

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jun.; 27(6),

example code are examined in this stage The low pressure pressurizer reactor trip module of the Plant Protection System was programmed as subject for

<31325FB1E8B0E6BCBA2E687770>

조사연구 aim of this study is to find main cause of the forecasting error and bias of telephone survey. We use the telephone survey paradata released by N

Journal of Educational Innovation Research 2019, Vol. 29, No. 1, pp DOI: * Suggestions of Ways

(JBE Vol. 23, No. 6, November 2018) (Special Paper) 23 6, (JBE Vol. 23, No. 6, November 2018) ISSN 2

10(3)-10.fm

10 이지훈KICS hwp

<313720BCADBCBAB9AB2DBBE7C8B8C0FBB1E2BEF720C5F5C0DA20C0C7BBE7B0E1C1A42E687770>

Kinematic analysis of success strategy of YANG Hak Seon technique Joo-Ho Song 1, Jong-Hoon Park 2, & Jin-Sun Kim 3 * 1 Korea Institute of Sport Scienc

<30312DC1A4BAB8C5EBBDC5C7E0C1A4B9D7C1A4C3A52DC1A4BFB5C3B62E687770>

4 : (Hyo-Jin Cho et al.: Audio High-Band Coding based on Autoencoder with Side Information) (Special Paper) 24 3, (JBE Vol. 24, No. 3, May 2019

Transcription:

Journal of Convergence for Information Technology Vol. 11. No. 3, pp. 7-13, 2021 e-issn 2586-4440 DOI : https://doi.org/10.22156/cs4smb.2021.11.03.007 딥러닝알고리즘기반의초미세먼지 (PM2.5) 예측성능비교분석 김영희 1*, 장관종 2 1 호서대학교벤처대학원융합공학과교수, 2 호서대학교벤처대학원융합공학과학생 Comparison and analysis of prediction performance of fine particulate matter(pm2.5) based on deep learning algorithm Younghee Kim 1, Kwanjong Chang 2 1 Professor, Department of Convergence Engineering, Graduate School of Venture, Hoseo University 2 Student, Department of Convergence Engineering, Graduate School of Venture, Hoseo University 요약본연구는딥러닝 (Deep Learning) 알고리즘 GAN 모델을기반으로초미세먼지 (PM2.5) 인공지능예측시스템을개발한다. 실험데이터는시계열축으로생성된온도, 습도, 풍속, 기압의기상변화와 SO2, CO, O3, NO2, PM10 와같은대기오염물질농도와밀접한관련이있다. 데이터특성상, 현재시간농도가이전시간농도에영향을받기때문에반복지도학습 (Recursive Supervised Learning) 예측모델을적용하였다. 기존모델인 CNN, LSTM 의정확도 (Accuracy) 를비교분석을위해관측값 (Observation Value) 과예측값 (Prediction Value) 간의차이를분석하고시각화했다. 성능분석결과제안하는 GAN 이 LSTM 대비평가항목 RMSE, MAPE, IOA 에서각각 15.8%, 10.9%, 5.5% 로향상된것을확인하였다. 주제어 : 딥런닝, 초미세먼지 (PM2.5), CNN, LSTM, GAN, 시계열데이터 Abstract This study develops an artificial intelligence prediction system for Fine particulate Matter(PM2.5) based on the deep learning algorithm GAN model. The experimental data are closely related to the changes in temperature, humidity, wind speed, and atmospheric pressure generated by the time series axis and the concentration of air pollutants such as SO2, CO, O3, NO2, and PM10. Due to the characteristics of the data, since the concentration at the current time is affected by the concentration at the previous time, a predictive model for recursive supervised learning was applied. For comparative analysis of the accuracy of the existing models, CNN and LSTM, the difference between observation value and prediction value was analyzed and visualized. As a result of performance analysis, it was confirmed that the proposed GAN improved to 15.8%, 10.9%, and 5.5% in the evaluation items RMSE, MAPE, and IOA compared to LSTM, respectively. Key Words : Deep Learning, Fine particulate Matter(PM2.5), Convolutional Neural Network, Long Short-Term Memory, Generative Adversarial Networks, Time Series Data 1. 서론초미세먼지 (PM2.5) 는국민건강과생활에미치는영향이심각해지자초미세먼지에대한발생원인과대책등다양한측면에서연구가활발하게수행되고있다. 초미세먼지는대기중직경 2.5μg / m3미만의먼지로온도 (Temperature), 풍속 (wind speed), 기압 (Pressur e), 습도 (humidity) 등기상변화에밀접한관계가있고 [1], 자동차배기가스, 화석연료연소, 공장제조공정에 * Corresponding Author : Younghee, Kim(yhkim514@hoseo.edu) Received February 6, 2021 Accepted March 20, 2021 Revised February 28, 2021 Published March 28, 2021

8 융합정보논문지제 11 권제 3 호 서배출되는대기오염물질인황산화물, 질소산화물, 암모니아등에화학반응을일으켜 2차발생물질로초미세먼지 (PM2.5) 을생성하는것으로알려져있다 [2]. 대기중직경이 10 μg / m3이하인미세먼지 (PM10) 에대한수치예측은기계학습을사용하여그동안활발하게진행되어왔으며최근에는인공신경망을사용해미세먼지수치를예측하는연구가진행되고있다 [3-8]. 그러나, 미세먼지관측을위해서는미세먼지관측소설치와미세먼지관측데이터를제공하여야하지만, 현실적으로는가격, 환경및지리적요건등에의해충족할만한관측소설치가어렵다 [9]. 본논문은이러한문제들을인공신경망으로해결하기위하여시간대별로변화하는기상조건과대기오염물질, 미세먼지 (PM10) 농도를기반으로초미세먼지 (PM2.5) 농도변화을예측하기위하여 CNN(Convolution Neural Networks), LSTM(Long Short-Term Memory), GAN(Generative Adversarial Networks) 등의모델에대한학습정확도와성능등을비교분석하였다. 정확도분석은관측값와예측값간의차이를시각화하였으며, 성능평가는 RMSE(Root Mean Square Error), MAPE(Mean Absolute Percentage Error), IOA(Index of Agreement) 등의지표를사용하였다. 있어서 GAN의활용도우수한것으로기술하였다. 3. Deep Learning 모델 3.1 CNN 구조다음 Fig. 1과같이 CNN 신경망구조는 Input Layer, Convolution Layer, Max Pooling Layer, Fully Connected Layer, Output Layer로구성되어있다. (ⅰ) Input Layer는 N k의 2차원행렬로구성되고, N은입력데이터의행길이, k는열길이를나타낸다. (ⅱ) Convolution Layer 는입력데이터에 filter 를가지고 convolution 연산을수행한다. convolution 연산은두함수 f, g 가운데하나의함수를 shit 시킨다음다른하나의함수와행렬곱한결과를의미한다. (ⅲ) Max Pooling Layer는 Convolution Layer의출력데이터를입력으로받아서출력데이터의크기를줄이거나특정데이터를강조한 Feature를생성한다. (ⅳ) Fully Connected Layer는모든 Feature들이평평하게모든뉴런에연결된다. (ⅴ) Output Layer는 output을내보낸다. 2. 관련연구 인공신경망을사용한미세먼지예측에관한연구는주로다층신경망 [4,5] 혹은 RNN(Recurrent Neural Network) 계열의 LSTM 모델에기상데이터혹은대기오염물질데이터를학습시켜미세먼지수치를예측했다 [6,7]. RNN/LSTM은데이터를순차적으로받아학습하기때문에시계열데이터를처리하는데는효과적이지만, 다양한데이터를종합적으로처리하지못하고장기간의시계열예측에는어려움이있다는약점이있다 [10]. 이러한시계열예측에서한계를극복하기위하여 CNN, GCN(Graph Convolutional Network) 등다양한모델들이제시되었다 [11]. Chiou-Jye Huang[12] 에의하면 CNN을사용하여시계열데이터들의 Pre-Processing 과정을거치는 Feature Extraction을수행하고 LSTM을통해 Forecasting 을수행하는 CNN+LSTM의모델은기존의 MLP, CNN, LSTM 보다우수한성능향상이되었다고하였다. Kang Zhang[13] 에의하면시계열데이터의예측에 Fig. 1. CNN architecture for time series prediction 3.2 LSTM 구조예측모델에사용된 LSTM은 RNN의한종류로서순환신경망이긴시퀀스를학습하는데있어 step이진행됨에따라이전의 time step 정보를학습하지못하는기울기소실문제 (vanishing gradient problem) 를극복한모델이다. 기존 RNN과달리순환신경망내에있는메모리들을 input, forget, output gate를포함하고있는 cell로대체하여주어진데이터의흐름조절을통해장기간의연관성을학습할수있는장점이있다 [14]. Fig. 2은 LSTM의 cell 구조를나타낸그림이다.

딥러닝알고리즘기반의초미세먼지 (PM2.5) 예측성능비교분석 9 다. 그리고 는실제자료와아주유사한자료를생성하여 이되도록노력한다. 주어진생성망에서판별망이최적의값을가질때식 (1) 의 GAN 가치함수를아래와같이재표현할수있다. tanh tanh Fig. 2. LSTM Cell 여기서 는 sigmoid 함수, 는요소별곱셈을뜻 하는 hadamard(element wise) product 연산자이다. forget gate 는 과거정보를잊기 를위한게이트이 다. 과 를받아 sigmoid 를취해준값이바로 forget gate 가내보내는값이된다. sigmoid 함수의 출력범위는 0 에서 1 사이이기때문에그리턴값이 0 이라면이전상태의정보는잊고, 1 이라면이전상태의 정보를온전히기억하게된다. input gate 는 현재 정보를기억하기 위한게이트이다. 과 를받아 sigmoid 를취하고, 또같은입력으로 hyperbilic tangent 를취해준다음 hadamard product 연산을 한값이바로 input gate 가내보내는값이된다 [7]. 3.3 GAN 구조 GAN 은실제자료 와동일한분포를가지는자료 를생성하는생성망 과실제자료와생성자료 를구별하는판별망 이서로대립하며 최적화를수행해나가는모형이다. 이는판별망과생성망 이최소최대게임을하는것으로표현가능하며다음과 같은가치함수 (Value Function) 로정의할수있다 [15]. minmax log log (1) 여기에서 와 는 와 의분포다. 식 (1) 에서판 별망 () 는실제자료 에대해서, 생성자료 에대해서는 가되도록노력한다. 즉 는생성자료와실제자료를잘구분하려고노력한 max log log log log (2) 여기에서 는 의분포이고 KL (Kullback- Leibler divergence) 과 JSD(Jenson-Shannon divergence) 는두분포간의거리를나타내는측도인데 JSD 는 0 이상 의값을가지며두분포가같으면 0 이다. 는전역 최소값으로 log(4) 를가지는것을확인할수있다 [16]. 4. 자료수집 4.1 자료수집및손실데이타처리방법 본논문에서는대기오염물질데이터는 airkorea.or.kr 에서인천검단지역을대상으로 2019 년 01 월 1 일부터 2019 년 12 월 31 일까지 1 일 (24 시 ) 의시간단위로총 8,760 건과기상데이터는 data.kma.go.kr 에서인천종 관기상관측 (ASOS) 자료를 2019 년 01 월부터 2019 년 12 월 31 일까지 1 일 (24 시 ) 의시간단위로총 8,760 건을 대상으로시계열데이터를수집하였다. 해당데이터들 은수집과정에서수집센서의고장과수리등으로인해 손실된데이터들이존재하였다. 이를임의적인방법으 로데이터를복구하였을시추후결과도출에미치는영 향을클수있다. 본논문에서는해당지역을 1 일 (24 시 ) 평균값으로하는선형보간법 (liner interpolation) 으로 데이터를보정하였다. Table 1. 에서와같이입력변수 (x) 들은기상데이타의온도, 풍속, 습도, 기압과대기오 염물질의아황산가스 (SO2), 이산화탄소 (CO), 오존 (O3), 이산화질소 (NO2), PM10( 직경 10 μg / m3미만미 세먼지 ), 출력변수 (y) 는 PM2.5( 직경 2.5 μg / m3미만미 세먼지 ) 를사용하였다.

10 융합정보논문지제 11 권제 3 호 Table 1. Sample Data date PM2.5 temp wind humi press SO2 CO O3 NO2 PM10 2019-01-01 0:00 9-4.8 2.7 39 1.7 0.003 0.4 0.026 0.012 36 2019-01-01 1:00 13-4.9 1.5 46 2 0.003 0.4 0.025 0.013 37 2019-01-01 2:00 11-5.1 1.4 47 2 0.003 0.4 0.023 0.015 39 2019-01-01 3:00 13-4.7 1.7 48 2.1 0.003 0.4 0.015 0.024 43 2019-01-01 4:00 13-5.1 0.8 49 2.1 0.002 0.5 0.011 0.029 40 4.2 시계열데이터검증시계열데이터는 stationarity가보장되어야예측결과가통계적으로유의하다. 모든시계열데이터들은평균 (mean), 분산 (variance), 자기상관 (autocorrelation) 이시간에따라일정해야하는것이다. 시계열데이터의 stationarity를확인하는방법은여러가지있지만, 본논문에서는공개 SW Eviews으로 ADF(Augmented Dickey-Fuller) 방법을사용했다. Table 2에서대부분변수들은통계적으로 stationar ity가확보되었지만, 온도의 raw data는 p-value(0.51 90) 가 0보다훨씬크고, t-staticstic value(-1.5289) 가 5%, critical value(-2.861678) 보다크므로귀무가설 ( ) 를기각할수없어 stationarity가존재한다. 또한 Fig. 3는계절별로서로다른추세가있는지시각적으로나타내고있는데온도변수에는추세가존재하고다른변수들은추세가없는계절성이존재한다. 이문제를해결하기위해온도변수에는 1차분 (lst lag) 이동시켜사용하였다 Table 2의 temp(1st). 5. 학습방법 5.1 supervised learning 일반적인 supervised learning은학습하고자하는데이터들에대하여입력변수 () 와출력변수 () 간의다음과같은수식으로표현한다. (3) 여기서함수 는 deterministic function, 는 noise or random error이며, 입력변수 () 와는서로독립적이고기댓값확률 ( 평균 ) 은 를가정한다. 데이터를학습한다는것은 training set 에서 (3) 의모델함수 을적용하여 를만들어내는과정이다. 본논문에서는초미세먼지 (PM2.5) 를예측하기위하여입력변수 와출력변수 집합을다음과같이정의하였다. Table 2. ADF Results temp temp(1st) wind humidity pressure SO2 CO O3 NO2 PM10 PM25 t-staticstic -1.5289-27.77057-20.15487-10.75406-4.55257-9.47648-11.9793-10.4786-12.2869-13.2604-10.5355 P-value 0.5190 0.0000 0.0000 0.0000 0.0002 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 1% level -3.430924-3.430924-3.430922-3.430923-3.43092-3.43092-3.43092-3.43092-3.43092-3.43092-3.43092 5% level -2.861678-2.861678-2.861677-2.861678-2.86168-2.86168-2.86168-2.86168-2.86168-2.86168-2.86168 10% level -2.566885-2.566885-2.566885-2.566885-2.56688-2.56689-2.56688-2.56689-2.56689-2.56688-2.56689 Fig. 3 Time series data seasonality plot

딥러닝알고리즘기반의초미세먼지 (PM2.5) 예측성능비교분석 11 온도 풍속 습도 기압 (4) 5.2 반복학습 시계열데이타들의학습방법은 Fig. 4 와같이반복 학습을진행하였다. 반복학습을통해모델함수 는 의근사값 을리턴하는데는이는 단계에서 의값을 ( ) 반복적으로적용한값 이다. Table 3 과 Table 4 에는각각의 Model 들에대한 Layout 과 user define parameter 을기술하였다. 6.1 모델정확도비교 6. 시험결과 Fig. 5. CNN accuracy plot Fig. 6. LSTM accuracy plot Fig. 4. Iterated prediction procedure Table 3. Deep Learning Model Layout input vector(col,row) optimizer Fuction CNN LSTM GAN (10, 1) (10, 1) (10, 1) adam adam RMSprop loss Function mae mae binary_corss entropy epochs 50 50 8,000 batch_size 72 72 125 Table 4. Deep Learning Model Parameters Fig. 5와 Fig. 6와같이 CNN과 LSTM의 accuracy plot를보면초기에는관측값와예측값의차이가있지만반복학습 (epoch) 이증가하면서점차차이가줄어든다. Fig. 7는 GAN의특정구간에서관측값과예측값간의큰차이가있는것도있지만반복학습이증가하면서차이는점점줄어들면서일치하게된다. 모델들의정확도는높은순으로 GAN, LSTM, CNN 순으로나타났다. 6.2 모델성능비교 Table 5에서처럼모델성능의우선순위는 CNN, LSTM과 GAN 순이며, GAN은 LSTM 보다 RMSE(3.17354, 15.8%) MAPE(0.13492, 10.9%), IOA(0.99500, 5.4%) 등으로각각향상되었다. Layer conv1d maxpoolin g flatten CNN LSTM TimeGAN Output Shape 9, 64) 4, 64) 256) Layer lstm_1 lstm_2 Output Shape 1, 75) 9, 25) Layer input lstm_1 dense_1 1) dropout_1 Output Shape 9, 10) 9, 75) 9, 75) dense_1 50) lstm_2 25) dense_2 1) dense_1 1) leaky_relu 1) Fig. 7. GAN accuracy plot

12 융합정보논문지제 11 권제 3 호 Table 5. Deep Learning Model Performance Count CNN LSTM GAN 1 4.10463 3.65625 3.16314 2 3.92753 3.66366 3.16523 3 3.87121 3.65267 3.16625 4 3.71000 3.68752 3.12476 5 3.61755 3.65358 3.14321 RMSE 6 3.84207 3.68830 3.20420 7 3.53745 3.66829 3.32350 8 3.77801 3.67228 3.08658 9 4.14025 3.70927 3.24560 10 3.65383 3.71255 3.11290 Avg 3.81825 3.67644 3.17354 1 0.14362 0.14999 0.15894 2 0.13909 0.15004 0.13344 3 0.14299 0.14913 0.12346 4 0.14070 0.15216 0.13944 5 0.13255 0.14970 0.13345 MAPE 6 0.15141 0.15254 0.13374 7 0.13740 0.15090 0.13344 8 0.14525 0.15128 0.13644 9 0.14549 0.15527 0.13343 10 0.13640 0.15488 0.12343 Avg 0.14149 0.15159 0.13492 1 0.92910 0.94386 0.99837 2 0.93811 0.94393 0.99388 3 0.93329 0.94372 0.99382 4 0.94009 0.94310 0.99381 5 0.94553 0.94392 0.99487 IOA 6 0.93957 0.94320 0.99485 7 0.94649 0.94403 0.99584 8 0.93702 0.94314 0.99389 9 0.92913 0.94234 0.99481 10 0.94091 0.94228 0.99582 Avg 0.93792 0.94335 0.99500 6.3 실험환경손실데이타처리 SW는 Tableau Preb(2019) 이며, 모델의성능비교에사용한 HW은 CPU(Intel i7,1.80gz, 1개 ), MM(16GB), SW은 windows 10 이며, 개발언어는 Python 3.7.6, Keras 2.4.3 이다. 7. 결론본논문은인공지능을활용한예측분야의선행연구로서, 다양한 Deep Learning 을비교분석하였다. 연구결과기존 CNN, LSTM 모델보다 PM2.5에가장적합한 GAN의모델이성능평가지표상가장우수한것으로나타났다. 다만, GAN의관측값와예측값의특정구간에서차이 (difference) 가높게나타나는것은향후개선해야할문제이다. 또한, Table 5. 에서 GAN은시험할때마다측정값들이일정하게유지하지않고차이를 보인다. 이는본연구적용된 Vanilla GAN 은 JSD (Jenson Shannon Divergence) 를최소화하는학습을 한다 [ 식 (2)]. 그러나 JSD 는두개의분포가완전하게일 치하지않으면항상 log2 를출력하므로모델함수 gradient 가항상 0 이되어미분을할수없게된 다. 이런 gradient vanishing 또는 clipping 문제를해 결하기위해서는 Gulrajani 가제안한 improved Training of Wasserstein GANs[17] 의검토가필요하다. REFERENCES [1] H. G. Yoo et al. (2020). Impact of Meteorological Conditions on the PM2.5 and PM10 concentrations in Seoul. Journal of Climate Change Research, 11(5-2), 521-528. DOI : 10.15531/KSCCR.2020.11.5.521 [2] S. H. Lee et al. (2019, 4). Characteristics of PM2.5 in Gwangju Evaluated by Factor Analysis. Journal of Environmental Science International, 28(4), 413-422 DOI : 10.5322/JESI.2019.28.4.413 [3] S. J. Oh, J. W. Koo & U. M. Kim. (2017). Concentration Prediction Technique Based on Locality of Fine Dust Generation. The Institute of Electronics and Information Engineers, 1357-1360 [4] A. Chaloulakou, G. Grivas & N. Spyrellis. (2003). Neural Network and multiple regression model for PM10 prediction in Athens: A comparative assessment. Journal of the Air & Waste Management Association, 53(10), 1183-1190. [5] M. M. Dedovic, S. Avadakovic, I. Turkovic, N. Dautbasic & T. Konjic. (2016). Forecasting PM10 concentrations using neural networks and system for improving air quality. Proceeding of 2016 XI International Symposium on Telecommunications, 1-6. [6] D. J. Lim, T. H. Kim, R. Lee & H. M. Jung. (2017). LSTM-based Particulate Matter prediction for efficient road scattering dust removal path proposal. Korea Information Processing Society, 24(2), 1258-1261. [7] K. P. Ra, M. C. Kim, M. J. Kim, S. T. Lim & Y. G. Sim. (2019). A Study on The Prediction of The Fine-Dust Concentration Using RNN/LSTM. The Institute of Electronics and Information Engineers, 1400-1405.

딥러닝알고리즘기반의초미세먼지 (PM2.5) 예측성능비교분석 13 [8] K. W. Cho, Y. J. Jung, C. G. Kang & C. H. Oh. (2019). Conformity Assessment of Machine Learning Algorithm for Particulate Matter Prediction. The Korea Institute of Information and Communication Engineering, 23(1), 20-26. [9] I. H. Shin, Y. H. Moon & Y. J. Lee. (2019). Deep Learning Models for Fine Dust Prediction in Smart Cities. Journal of Computing Science and Engineering, 397-399 [10] Y. Bengio, P. Simard & P. Frasconi. (1994). Learning long-term dependencies with gradient descent is difficult. Neural Networks, IEEE Transactions on, 5(2), 157 166. [11] J. Y. Choi, D. H. Lee, J. Y. Kim & K. M. Jung. (2019), Air pollution prediction using deep learning based model. Journal of Computing Science and Engineering. 859-861. [12] C. J. Huang, P. H. Kuo. (2018). A Deep CNN-LSTM Model for Particulate Matter (PM2.5) Forecasting in Smart Cities. Sensors, 18(7):2220 [13 K. Zhang, G. Zhong, J. Dong, S. Wang & Y. Wang. (2019). Stock Market Prediction Based on Generative Adversarial Network. Procedia Computer Science, 147. 400-406. DOI:10.1016/j.procs.2019.01.256. 장관종 (Kwanjong, Chang) [ 정회원 ] 1989 년 2 월 : 인하대학교전자계산학과 ( 이학사 ) 1992 년 8 월 : 인하대학교전자계산학과 ( 공학석사 ) 2019 년 3 월 현재 : 호서대학교벤처대학원융합공학과박사과정 관심분야 : Deep Learning( 예측 ), Blockchain( 보안 ) E-Mail : jangck11@naver.com 김영희 (Younghee Kim) [ 정회원 ] 1990 년 2 월서울시립대학교환경공학 ( 공학사 ) 2004 년 8 월서울대학교환경보건학과 ( 보건학석사 ) 2008 년 8 월서울대학교환경보건학과 ( 보건학박사 ) 2013 년 3 월 ~ 현재호서대학교벤처대학원융합공학과 교수 관심분야 : 미세먼지, 미세플라스틱 E-Mail : yhkim514@hoseo.edu [14] K. W. Cho, Y. J. Jung, J. S. Lee & C. H. Oh. (2019). PM10 Particulate Matters Concentration Prediction using LSTM. The Korea Institute of Information and Communication Engineering, 23(2), 632-634 [15] I. Goodfellow et al. (2014). Generative adversarial nets. Advances in Neural Information Processing Systems 27, Montreal, Quebec, Canada, 2672 2680. [16] Y. J. Lee, K. H. Seok. (2018). A study on the performance of generative adversarial networks. The Korean Data and Information Science Society, 29(5), 1155-1167. [17] I. Gulrajani, F. Ahmed, M. Arjovsky, V. Dumoulin & A. Courville, (2017). Imporved Training of Wasserstein GANs. arxiv preprint arxiv:1704.00028.