Structural SVMs 및 Pegasos 알고리즘을 이용한 한국어 개체명 인식
|
|
- 현석 음
- 6 years ago
- Views:
Transcription
1 딥러닝 기반의 자연어처리 기술 강원대학교 IT대학 이창기
2 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
3 자연어처리 자연언어 인공언어에대응되는개념 인공언어 : 특정목적을위해인위적으로만든언어 (ex. 프로그래밍언어 ) 자연언어에비해엄격한구문을가짐 특정집단에서사용되는모국어의집합 한국어, 영어, 불어, 독일어, 스페인어, 일본어, 중국어등 자연언어처리 (Natural Language Processing) 컴퓨터를통하여인간의언어를이해하고처리하는학문분야 기계번역, 자동통역, 정보검색, 질의응답, 문서요약, 철자오류수정등 Google, Naver, IBM Watson, Apple Siri,
4 자연언어분석단계 자연언어문장 형태소분석 (Morphological Analysis) 구문분석 (Syntax Analysis) 의미분석 (Semantic Analysis) 형태소분석 : 감기는 의결과 감기 ( 명사 :cold) + 는 ( 조사 ) 감 ( 동사어간 ) + 기 ( 명사화어미 ) + 는 ( 조사 ) 감 ( 동사어간 ) + 기는 ( 어미 ) 구문분석 : Structural Ambiguities Time flies like light 2가지이상 tree A man see a woman with a telescope 2가지이상 tree NP S VP N N V 나는 사과를 먹었다 sub obj 나는사과를먹었다 화용분석 (Pragmatic Analysis) 분석결과 의미분석 : 말이많다 말 : horse or speech? 화용분석 : A 씨는 B 씨는 그는 그 : A or B? 4
5 자연어처리특징 Natural languages are ambiguous Rule Classification (Maximum Entropy, SVM) Deep Learning NLP datasets are high dimensional One-hot representation Continuous representation (Word Embedding) Many NLP problems can be viewed as sequence labeling tasks Hidden Markov Model(HMM) Conditional Random Fields (CRF) Deep Learning (RNN) Many NLP problems can be posed as sequence-to-sequence tasks Rule Statistical Machine Translation Neural MT 감기는 감기 ( 명사 ) or 감다 ( 동사 ) + 기 말이많다 말 = horse or speech? A 씨는 B 씨는 그는 그 : A or B? Ex. [ ] Dimensionality 50K (PTB) 500K (big vocab) 3M
6 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
7 Why Deep Neural Networks?: Integrated Learning 기존기계학습방법론 Handcrafting features time-consuming Deep Neural Network: Feature Extractor + Classifier < 겨울학교 14 Deep Learning 자료참고 > 7
8 Why Deep Neural Networks?: Unsupervised Feature Learning 기계학습에많은학습데이터필요 소량의학습데이터 학습데이터구축비용 / 시간 대량의원시코퍼스 (unlabeled data) Semi-supervised, Unsupervised Deep Neural Network Pre-training 방법을통해대량의원시코퍼스에서자질학습 Restricted Boltzmann Machines (RBM) Stacked Autoencoder, Stacked Denosing Autoencoder Word Embedding (for NLP) 8
9 텍스트의표현방식 NLP datasets are high dimensional One-hot representation (or symbolic) Ex. [ ] Dimensionality 50K (PTB) 500K (big vocab) 3M (Google 1T) Problem Motel [ ] AND Hotel [ ] = 0 Continuous representation Latent Semantic Analysis, Random projection Latent Dirichlet Allocation, HMM clustering Neural Word Embedding Dense vector By adding supervision from other tasks improve the representation
10 Neural Network Language Model (Bengio0 0,03) Idea A word and its context is a positive training sample A random word in that same context negative training sample Score(positive) > Score(neg.) Training complexity is high Hidden layer output Softmax in the output layer Hierarchical softmax Negative sampling Ranking(hinge loss) LT: V *d, Input(one hot): V *1 LT T I Shared weights = Word embedding Input Dim: 1 Dim: 2 Dim: 3 Dim: 4 Dim: 5 1 (boy) (girl)
11 Word2Vec: CBOW, Skip-Gram Remove the hidden layer Speedup 1000x Negative sampling Frequent word sampling Multi-thread (no lock) Continuous Bag-of-words (CBOW) Predicts the current word given the context Skip-gram Predicts the surrounding words given the current word CBOW + DropOut/DropConnect Shared weights
12 한국어 Word Embedding: NNLM Data 세종코퍼스원문 + Korean Wiki abstract + News data 2 억 8000 만형태소 Vocab. size: 60,000 모든형태소대상 ( 기호, 숫자, 한자, 조사포함 ) 숫자정규화 + 형태소 /POS: 정부 /NNG, 00/SN NNLM model Dimension: 50 Matlab 구현 학습시간 : 16 일
13 한국어 Word Embedding: Word2Vec(CBOW) Data News + Korean Wiki abstract: 9GB raw text 29억형태소 Vocab. size: 100,000 모든형태소대상 ( 기호, 숫자, 한자, 조사포함 ) 숫자정규화 + 영어소문자 + 형태소 /POS Word2Vec 모델 : CBOW > SKIP-Gram 학습시간 : 24분
14 Recurrent Neural Network Many NLP problems can be viewed as sequence labeling or sequence-to-sequence tasks Recurrent property dynamical system over time
15 Bidirectional RNN Exploit future context as well as past
16 Long Short-Term Memory RNN Vanishing Gradient Problem for RNN LSTM can preserve gradient information
17 Gated Recurrent Unit (GRU) r t = σ W xr x t + W hr h t 1 + b r z t = σ W xx x t + W hz h t 1 + b z h t = φ W xh x t + W hh r t h t 1 + b h h t = z t h t + 1 z t y t = g(w hy h t + b y ) h t
18 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
19 전이기반의한국어의존구문분석 Transition-based(Arc-Eager): O(N) 의존구문분석 분류문제 SBJ MOD OBJ 예 : CJ 그룹이 1 대한통운 2 인수계약을 3 체결했다 4 [root], [CJ 그룹이 1 대한통운 2 ], {} 1: Shift [root CJ그룹이 1 ], [ 대한통운 2 인수계약을 3 ], {} 2: Shift [root CJ그룹이 1 대한통운 2 ], [ 인수계약을 3 체결했다 4 ], {} 3: Left-arc(NP_MOD) [root CJ그룹이 1 ], [2 인수계약을 3 체결했다 4 ], {( 인수계약을 3 대한통운 2 )} 4: Shift [root CJ그룹이 1 2 인수계약을 3 ], [ 체결했다 4 ], {( 인수계약을 3 대한통운 2 )} 5: Left-arc(NP_OBJ) [root CJ그룹이 1 ], [3 체결했다 4 ], {( 체결했다 4 인수계약을 3 ), } 6: Left-arc(NP_SUB) [root], [(1,3) 체결했다 4 ], {( 체결했다 4 CJ그룹이 1 ), } 7: Right-arc(VP) [root 4 (1,3) 체결했다 4 ], [], {(root 체결했다 4 ), }
20 딥러닝기반한국어의존구문분석 ( 한글및한국어 14) Transition-based + Backward O(N) 세종코퍼스 의존구문변환 보조용언 / 의사보조용언후처리 Deep Learning 기반 ReLU(> Sigmoid) + Dropout Korean Word Embedding NNLM, Ranking(hinge, logit) Word2Vec Feature Embedding POS (stack + buffer) 자동분석 ( 오류포함 ) Dependency Label (stack) Distance information Valency information Mutual Information 대용량코퍼스 자동구문분석 Input Word S[w t-2 w t-1 ] B[w t ] Word Lookup Table LT 1 LT N Linear M 1 x M 2 x ReLU Linear Input Feature f 1 f 2 f 3 f 4 Feature Lookup Table LT 1 LT D concat h #output
21 한국어의존구문분석실험결과 기존연구 : UAS 85~88% Structural SVM 기반성능 : UAS=89.99% LAS=87.74% Pre-training > no Pre. Dropout > no Dropout ReLU > Sigmoid MI feat. > no MI feat. Word Embedding 성능순위 1. NNLM 2. Ranking(logit loss) 3. Word2vec 4. Ranking(hinge loss)
22 한국어상호참조해결 상호참조 (Coreference) 문서내에서이미언급된객체에대하여표현이다른단어로다시언급하는것 Mention: 상호참조해결의대상이되는모든명사구 ( 즉, 명사, 복합명사, 수식절을포함한명사구등 ) 를의미 Entity: 상호참조가해결된 Mention 들의집합 Mention Detection 예제 [[ 고양 ] 에서발생한용오름 ] 은 [ 토네이도 ] 와같은것으로 [[[ 지상 ] 의뜨거운공기 ] 가 [[ 상층 ] 의찬공기 ] 와갑자기섞일때 ] 발생합니다. [ 뜨거운공기 ] 가빠르게상승하고 [ 찬공기 ] 는하강하면서 [[ 길다란기둥 ] 모양의구름 ] 이생겨나고 [[ 그 ] 안 ] 에서격렬한 [ 회오리바람 ] 이부는겁니다. Entity 예제 [ 지상의뜨거운공기 ], [ 뜨거운공기 ] [ 상층의찬공기 ], [ 찬공기 ] [ 길다란기둥모양의구름 ], [ 그 ]
23 딥러닝기반한국어상호참조해결 (KCC 15, ETRI Journal 16) 딥러닝기반 Mention-Pair model 상호참조해결 분류문제 Korean word embedding + feature embedding (SVM 과동일 ) Dropout + ReLU Data set 성능 Test: 뉴스 1~20 문서 Training: 뉴스 21~100 문서, 장학퀴즈 QA 153 개 Deep Learning (MUC F1): 69.62% No pre-training: F1 65.8% SVM (MUC F1): 60.46% Input Word Mention Pair: w i, w j LT 1 LT K Word Lookup Table M 1 x Linear ReLU concat Input Feature f 1 f 2 f 3 LT 1 f 4 Feature Lookup Table LT D h Linear M 2 x #output
24 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
25 Sequence Labeling Tasks: CRF, FFNN(or CNN), CNN+CRF (SENNA) y(t-1) y(t ) y(t+1) Features x(t-1) x(t ) x(t+1) y(t-1) y(t ) y(t+1) y(t-1) y(t ) y(t+1) h(t-1) h(t ) h(t+1) h(t-1) h(t ) h(t+1) x(t-1) x(t ) x(t+1) Word embedding x(t-1) x(t ) x(t+1) Word embedding
26 RNN + CRF Recurrent CRF y(t-1) y(t ) y(t+1) y(t-1) y(t ) y(t+1) h(t-1) h(t ) h(t+1) x(t-1) x(t ) x(t+1) x(t-1) x(t ) x(t+1) y(t-1) y(t ) y(t+1) h(t-1) h(t ) h(t+1) x(t-1) x(t ) x(t+1)
27 LSTM RNN + CRF LSTM-CRF (KCC 15) y(t-1) y(t ) y(t+1) y(t-1) y(t ) y(t+1) h(t-1) h(t ) h(t+1) x(t-1) x(t ) x(t+1) x(t-1) x(t ) x(t+1) y(t-1) y(t ) y(t+1) f (t ) h(t-1) h(t ) h(t+1) i (t ) o(t ) x(t-1) x(t ) x(t+1) x(t ) C(t) h(t )
28 LSTM-CRF y(t-1) y(t ) y(t+1) h(t-1) h(t ) h(t+1) i t = σ W xi x t + W hi h t 1 + W ci c t 1 + b i f t = σ W xf x t + W hf h t 1 + W cf c t 1 + b f x(t-1) x(t ) x(t+1) c t = f t c t 1 + i t tanh W xc x t + W hc h t 1 + b c o t = σ W xo x t + W ho h t 1 + W co c t + b o h t = o t tanh(c t ) y t = g(w hy h t + b y ) 단어단위로학습 y t = W hy h t + b y s x, y = T t=1 A y t 1, y t + y t log P y x = s x, y log y exp(s(x, y )) 문장단위로학습
29 GRU-CRF y(t-1) y(t ) y(t+1) h(t-1) h(t ) h(t+1) r t = σ W xr x t + W hr h t 1 + b r x(t-1) x(t ) x(t+1) z t = σ W xz x t + W hz h t 1 + b z h t = φ W xh x t + W hh r t h t 1 + b h h t = z t h t z t h t y t = g(w hy h t + b y ) 단어단위로학습 y t = W hy h t + b y s x, y = T t=1 A y t 1, y t + y t log P y x = s x, y log y exp(s(x, y )) 문장단위로학습
30 BI-LSTM CRF Bidirectional LSTM+CRF Bidirectional GRU+CRF Stacked Bi-LSTM+CRF y(t-1) y(t ) y(t+1) bh(t-1) bh(t ) bh(t+1) h(t-1) h(t ) h(t+1) x(t-1) x(t ) x(t+1)
31 Stacked LSTM CRF y(t-1) y(t ) y(t+1) y(t-1) y(t ) y(t+1) bh(t-1) bh(t ) bh(t+1) h2(t-1) h2(t ) h2(t+1) h(t-1) h(t ) h(t+1) h(t-1) h(t ) h(t+1) x(t-1) x(t ) x(t+1) x(t-1) x(t ) x(t+1)
32 영어개체명인식 (KCC 15, IEICE Journal 17) 영어개체명인식 (CoNLL03 data set) F1(dev) F1(test) SENNA (Collobert) Structural SVM (baseline + Word embedding feature) FFNN (Sigm + Dropout + Word embedding) RNN (Sigm + Dropout + Word embedding) LSTM RNN (Sigm + Dropout + Word embedding) GRU RNN (Sigm + Dropout + Word embedding) CNN+CRF (Sigm + Dropout + Word embedding) RNN+CRF (Sigm + Dropout + Word embedding) LSTM+CRF (Sigm + Dropout + Word embedding) GRU+CRF (Sigm + Dropout + Word embedding)
33 한국어개체명인식 (IEICE Journal 17) 한국어개체명인식 (TV domain) Structural SVM (baseline) (basic + NE dic. + word cluster feature + morpheme feature) F1(test) FFNN (ReLU + Dropout + Word embedding) RNN (Tanh + Dropout + Word embedding) LSTM RNN (Tanh + Dropout + Word embedding) (+0.35) Bi-LSTM RNN (Tanh + Dropout + Word embedding) (+0.18) CNN+CRF (ReLU + Dropout + Word embedding) (+1.03) RNN+CRF (Sigm + Dropout + Word embedding) (+1.49) LSTM+CRF (Sigm + Dropout + Word embedding) (+2.01) GRU+CRF (Sigm + Dropout + Word embedding) (+1.99)
34 Neural Architectures for NER (CMU Arxiv 16) LSTM-CRF model + Char-based Word Representation Char: Bi-LSTM RNN
35 End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF (CMU ACL16) LSTM-CRF model + Char-level Representation Char: CNN
36 의미역결정 (Semantic Role Labeling)
37 한국어의미역결정 (SRL) 서술어인식 (PIC) 그는르노가 3 월말까지인수제의시한을 [ 갖고 ] 갖.1 있다고 [ 덧붙였다 ] 덧붙.1 논항인식 (AIC) 그는 [ 르노가 ] ARG0 [3 월말까지 ] ARGM-TMP 인수제의 [ 시한을 ] ARG1 [ 갖고 ] 갖.1 [ 있다고 ] AUX 덧붙였다 [ 그는 ] ARG0 르노가 3 월말까지인수제의시한을갖고 [ 있다고 ] ARG1 [ 덧붙였다 ] 덧붙.1 의존구문분석 의미역결정
38 딥러닝기반한국어의미역결정 ( 한글및한국어정보처리 15, 동계학술대회 15) Bidirectional LSTM+CRF Korean Word embedding Predicate word, argument word NNLM Feature embedding POS, distance, direction Dependency path, LCA Bi-LSTM+CRF 성능 (AIC) F1: 78.2% (+1.2) Backward LSTM+CRF: F1 77.6% S-SVM 성능 (KCC14) 기본자질 : F1 74.3% 기본자질 +word cluster: 77.0% 정보과학회논문지 h(t-1) y(t-1) y(t ) y(t+1) bh(t-1) bh(t ) bh(t+1) h(t ) h(t+1) x(t-1) x(t ) x(t+1)
39 Stacked BI-LSTM CRF 기반한국어의미역결정 ( 정보과학회지 17) Syntactic information w/ w/o Structural SVM FFNN Backward LSTM CRFs Bidirectional LSTM CRFs Stacked Bidirectional LSTM CRFs (2 layers) Stacked Bidirectional LSTM CRFs (3 layers)
40 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
41 Recurrent NN Encoder Decoder for SMT (Montreal U. EMNLP 14) GRU RNN Encoding GRU RNN Decoding Vocab: 15,000 (src, tgt)
42 Sequence to Sequence Learning with Neural Networks (Google NIPS 14) Source Voc.: 160,000 Target Voc.: 80,000 Deep LSTMs with 4 layers Train: 7.5 epochs (12M sentences, 10 days with 8- GPU machine)
43 Neural MT by Jointly Learning to Align and Translate (Jacobs U., Montreal U. ICLR 15) GRU RNN + Attention Encoding GRU RNN Decoding Vocab: 30,000 (src, tgt) Train: 5 days
44 문자단위의 NMT (WAT 15, 한글및한국어 15) 기존의 NMT: 단어단위의인코딩 - 디코딩 미등록어후처리 or NMT 모델의수정등이필요 문자단위의 NMT 입력언어는단어단위로인코딩 출력언어는문자단위로디코딩 단어단위 : その /UN 結果 /NCA を /PS 詳細 /NCD 문자단위 : そ /B の /I 結 /B 果 /I を /B 詳 /B 細 /I 문자단위 NMT 의장점 모든문자를사전에등록 미등록어문제해결 기존 NMT 모델의수정이필요없음 미등록어후처리작업이필요없음 c y t-1 y t S S
45 ASPEC E-to-J 실험 (WAT 15) ASPEC E-to-J data 성능 (Juman 이용 BLEU) PB SMT: HPB SMT: Tree-to-string SMT: NMT (Word-level decoding): NMT (Character-level decoding): (4 위 ) RIBES (2 위 ) Tree-to-String + NMT(Character-level) reranking BLEU (2 위 ) Human (2 위 ) This/DT:0 paper/nn:1 explaines/nns:2 experimenta l/jj:3 result/nn:4 according/vbg:5 to/to:6 the/dt:7 model/nn:8./.:9 </s>:10 こ /B:0 の /I:1 モ /B:2 デ /I:3 ル /I:4 に /B:5 よ /B:6 る /I:7 実 /B:8 験 /I:9 結 /B:10 果 /I:11 を /B:12 説 /B:13 明 /I:14 し /B:15 た /B:16 /B:17 </s>:18
46 Input-feeding Approach (Stanford EMNLP 15) The attentional decisions are made independently, which is suboptimal. In standard MT, a coverage set is often maintained during the translation process to keep track of which source words have been translated. Effect: - We hope to make the model fully aware of previous alignment choices - We create a very deep network spanning both horizontally and vertically
47 Copying Mechanism or CopyNet (Hong Kong U. ACL16)
48 Abstractive Text Summarization ( 한글및한국어 16) RNN_search+input_feeding+CopyNet 로드킬로숨진친구의곁을지키는길고양이의모습이포착되었다.
49 End-to-End 한국어형태소분석 ( 동계학술대회 16) Attention + Input-feeding + Copying mechanism
50 Sequence-to-sequence 기반한국어구구조구문분석 ( 한글및한국어 16) NP 43/SN NP NP + 국 /NNG 참가 /NNG y t-1 (NP (NP 43/SN + 국 /NNG) (NP 참가 /NNG)) h2 t-1 y t h2 t 입력 정답 선생 <NNG> 님 <XSN> 의 <JKG> <sp> 이야기 <NNG> <sp> 끝나 <VV> 자 <EC> <sp> 마치 <VV> 는 <ETM> <sp> 종 <NNG> 이 <JKS> <sp> 울리 <VV> 었 <EP> 다 <EF>. <SF> (S (S (NP_SBJ (NP_MOD XX ) (NP_SBJ XX ) ) (VP XX ) ) (S (NP_SBJ (VP_MOD XX ) (NP_SBJ XX ) ) (VP XX ) ) ) h1 t-1 c t h1 t RNN-search[7] (S (VP (NP_OBJ (NP_MOD XX ) (NP_OBJ XX ) ) (VP XX ) ) (S (NP_SBJ (VP_MOD XX ) (NP_SBJ XX ) ) (VP XX ) ) ) GRU GRU GRU RNN-search + Input-feeding + Dropout (S (S (NP_SBJ (NP_MOD XX ) (NP_SBJ XX ) ) (VP XX ) ) (S (NP_SBJ (VP_MOD XX ) (NP_SBJ XX ) ) (VP XX ) ) ) GRU x 1 GRU x 2 GRU 형태소의음절 + 품사태그 + <sp> 모델 F1 스탠포드구문분석기 [13] 버클리구문분석기 [13] RNN-search[7] (Beam size 10) RNN-search + Input-feeding RNN-search + Input-feeding + Dropout x T Attention + Input-feeding
51 Neural Responding Machine for Short-Text Conversation (Huawei ACL 15)
52 Short-Text Conversation ( 동계학술대회 16) - Data: 클리앙 아무거나질문게시판 - 77,346 질문 - 응답쌍 - 학습 : 개발 : 평가 = 8:1:1
53 CNN 기반한국어감성분석 (KCC 16) 한국어감성분석 : 문장 긍정 or 부정 ( 분류문제 ) EMNLP14 CNN 모델확장 한국어특징반영 < 한국어영화평감성분석데이터구축 >
54 LSTM RNN 기반한국어감성분석 LSTM RNN-based encoding Sentence embedding 입력 Fully connected NN 출력 GRU encoding 도유사함 h(1) h(2 ) h(t) y x(1) x(2 ) x(t) Data set Model Accuracy Mobile Train: 4543 Test: 500 SVM (word feature) CNN(EMNLP14 : relu,kernel3,hid50) GRU encoding + Fully connected NN LSTM RNN encoding + Fully connected NN 90.93
55 이미지캡션생성 이미지내용이해 이미지내용을설명하는캡션자동생성 이미지인식 ( 이해 ) 기술 + 자연어처리 ( 생성 ) 기술 활용분야 이미지검색 맹인들을위한사진설명, 네비게이션 유아교육,
56 RNN 을이용한이미지캡션생성 ( 동계학술대회 15) Flickr 8K B-1 B-2 B-3 B-4 m-rnn (Baidu)[2] DeepVS (Stanford)[5] NIC (Google)[4] Ours-GRU-DO Ours-GRU-DO Ours-GRU-DO Ours-GRU-DO Flickr 30K B-1 B-2 B-3 B-4 m-rnn (Baidu)[2] DeepVS (Stanford)[5] NIC (Google)[4] Ours-GRU-DO Ours-GRU-DO Ours-GRU-DO Ours-GRU-DO VGGNet
57 Residual Net + 한국어이미지캡션생성 ( 동계학술대회 16) Residual Net:
58 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
59 Pointer Network (Google NIPS 15) Travelling Salesman Problem: NP-hard Pointer Network can learn approximate solutions: O(n^2)
60 포인터네트워크기반상호참조해결 (KCC 16, Pattern Recognition Letters 17) 상호참조해결 : A 씨는 B 씨는 그는 그 : A or B? 입력 : 단어 ( 형태소 ) 열, 출발점 ( 대명사, 한정사구 ( 이별자리등 )) X = {A:0, B:1, C:2, D:3, <EOS>:4}, Start_Point=A:0 출력 : 입력단어열의위치 (Pointer) 열 Entity Y = {A:0, C:2, D:3, <EOS>:4} 특징 : End-to-end 방식의대명사상호참조해결 (mention detection 과정 X) Attention Layer Hidden Layer Projection Layer A B C D <EOS> A C D <EOS> Encoding Decoding
61 결과예제 입력 입력문장 : 우리 :0 나라 :1 국회 :2 에서 :3 의결 :4 되 :5 ㄴ :6 법률 :7 안 :8 은 :9 정부 :10 로 :11 이송 :12 후 :13 이 :14 기한 :15 내 :16 에 :17 대통령 :18 이 :19 공포 :20 하 :21 ㅁ :22 으로써 :23 확정 :24 되 :25 ㄴ다 :26.:27 헌법 :28 에 :29 명시 :30 되 :31 ㄴ :32 이 :33 기한 :34 은 :35 며칠 :36 이 :37 ㄹ까 :38?:39 <EOS>:40 출력열출발점 : 이 _ 기한 :15 출력정답 (Coref0 순서 ) 이 _ 기한 :15 ( 출발점 ) 이 _ 기한 :34 며칠 :36 <EOS>:40 Attention score (100 점 ) 이 _ 기한 :15 이 _ 기한 :34 이 _ 기한 _ 내 :16 (3), 헌법 :28 (1), 이 _ 기한 :34 (80), 며칠 :36 (10), <EOS>:40 (2) 이 _ 기한 :34 며칠 :36 며칠 :36 (89), <EOS>:40 (9) 며칠 :36 <EOS>:40 <EOS>:40 (99) 참고 : 규칙기반결과 { 이 _ 기한 :15, 이 _ 기한 :34} 며칠 :36 생략됨 { 법률 _ 안 :8, 며칠 :36} (X)
62 포인터네트워크를이용한한국어의존구문분석 ( 동계학술대회 16) SBJ MOD OBJ CJ 그룹이대한통운인수계약을체결했다
63 차례 자연어처리소개 딥러닝소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Machine Reading Comprehension
64 SQuAD Stanford Question Answering Dataset (SQuAD) Reading comprehension dataset 100,000+ questions 536 Wikipedia articles 23,215 passages 107,785 questions
65 SQuAD Leaderboard
66 Match LSTM with Answer Pointer (Singapore Management U. Arxiv16)
67 Match LSTM with Answer Pointer cont d
68 Bi-directional Attention Flow Model (Allen Institute Arxiv16)
69 R-Net: SQuAD 1 st (Microsoft Research Asia)
70 개발현황 Match LSTM, BIDAF, R-Net 모델자체구현완료 Theano를이용하여자체구현 baseline model 다양한변형모델개발중 한국어데이터실험중 기업체에서한국어데이터구축중 다양한모델을한국어데이터에적용중
71 한국어실험 1/2 한국어데이터셋 학습 : 16,421 질문셋 평가 : 1,825 질문셋 성능 Match-LSTM: F1=48.30%, EM=31.62% R-Net: F1=45.41%, EM=29.42% BIDAF: F1=? %, EM=? %
72 한국어결과데이터예제 1/3 뉴스기사 질문 이희솔 /nnp[0] 은 /jx[1] 1/sn[2] 차 /nnb[3] 시기 /nng[4] 에서 /jkb[5] 155/sn[6] kg /nnb[7] 을 /jko[8] 가뿐 /xr[9] 하 /xsa[10] 게 /ec[11] 들 /vv[12] 어 /ec[13] 올리 /vv[14] 었 /ep[15] 다 /ef[16]./sf[17] 리우 /nnp[53] 올림픽 /nng[54] 역도 /nng[55] 여자 /nng[56] 75/sn[57] kg /nnb[58] 이상 /nng[59] 급 /nng[60] 그룹 /nng[61] A/sl[62] 경기 /nng[63] 에서 /jkb[64] 이 /mm[106] 경기 /nng[107] 에서 /jkb[108] 는 /jx[109] 중국 /nnp[110] 의 /jkg[111] 멍수핑 /nng[112] 이 /jks[113] 금메달 /nng[114] 을 /jko[115] 차지 /nng[116] 하 /xsv[117] 았 /ep[118] 다 /ef[119]./sf[120] 멍수핑 /nng[121] 은 /jx[122] 인상 /nng[123] 130/sn[124] kg /nnb[125],/sp[126] 용상 /nng[127] 177/sn[128] kg /nnb[129],/sp[130] 합계 /nng[131] 307/sn[132] kg /nnb[133] 을 /jko[134] 기록 /nng[135] 하 /xsv[136] 았 /ep[137] 다 /ef[138]./sf[139] 은메달 /nng [140] 을 /jko[141] 4/sn[228] 번 /nnb[229] 째 /xsn[230] 메달 /nng[231] 을 /jko[232] 수확 /nng[233] 하 /xsv[234] 았 /ep[235] 다 /ef[236]./sf[237] </s>[238] 리우올림픽여자역도 75kg 우승자는누구야? Key: 멍수핑 /nng Sys: 멍수핑 /nng
73 한국어결과데이터예제 2/3 잘된것 누구 Q: 리우올림픽여자역도 75kg 우승자는누구야? Key: 멍수핑 /nng Sys: 멍수핑 /nng 무엇 Q: 뉴로피드백은무슨시스템이야? Key: 뇌파를조절하여인간의능력을극대화하는시스템 Sys: 뇌파를조절하여인간의능력을극대화하는시스템 얼마? Q: 화도진스케이트장이용료는얼마야? Key: 1 천원 Sys: 1 천원 이유 Q; 리우올림픽에서박태환의성적이부진했던이유가뭐야? Key: 그동안많은경기를뛰지못했다. Sys: 많은경기를뛰지못했다. 방법 Q: 리우올림픽측은초록색수영장물을어떻게처리했어? Key: 하수관으로배출돼조정, 카누, 트라이애슬론경기장의물로활용 Sys: 하수관으로배출돼조정, 카누, 트라이애슬론경기장의물로활용
74 한국어결과데이터예제 3/3 잘안된것 왜 무엇 언제 무엇 Q: 롯데는이번시즌에왜성적이부진했어? Key: 주축선수들의줄부상 Sys: 좌측정강이뼈분쇄골절진단 Q: 두산베어스의팀특징은뭐야? Key: 공격적이고적극적인타격 Sys: 강한팀으로거듭나는이유중하나는견고한수비 Q: 류현진메이저리그데뷔전이언제였어? Key: 2013 년 4 월 3 일 Sys: 2013 년 Q: 전국기능대회입상자는어떤혜택이있어? Key: 금메달 1200 만원, 은메달 800 만원, 동메달 400 만원의상금과함께해당직종산업기사실기시험면제, 세계대회출전기회및기능경기대회후원업체취업기회등 Sys: 기술전문가로자리잡을수있도록
RNN & NLP Application
RNN & NLP Application 강원대학교 IT 대학 이창기 차례 RNN NLP application Recurrent Neural Network Recurrent property dynamical system over time Bidirectional RNN Exploit future context as well as past Long Short-Term
More information딥러닝NLP응용_이창기
딥러닝과 자연어처리 응용 강원대학교 IT대학 이창기 차례 딥러닝최신기술소개 딥러닝기반의자연어처리 Classification Problem Sequence Labeling Problem Sequence-to-Sequence Learning Pointer Network Recurrent Neural Network Many NLP problems can be viewed
More informationStructural SVMs 및 Pegasos 알고리즘을 이용한 한국어 개체명 인식
Deep Learning 차례 현재딥러닝기술수준소개 딥러닝 딥러닝기반의자연어처리 Object Recognition https://www.youtube.com/watch?v=n5up_lp9smm Semantic Segmentation https://youtu.be/zjmtdrbqh40 Semantic Segmentation VGGNet + Deconvolution
More informationPowerPoint Presentation
Dependency Parser 자연언어처리 Probabilistic CFG (PCFG) - CFG - PCFG with saw with saw astronomers ears saw stars telescope astronomers ears saw stars telescope PCFG example Repeated work Parsing PCFG: CKY CKY
More informationNaver.NLP.Workshop.SRL.Sogang_Alzzam
: Natra Langage Processing Lab 한국어 ELMo 모델을이용한의미역결정 박찬민, 박영준 Sogang_Azzam Naver NLP Chaenge 서강대학교자연어처리연구실 목차 서론 제안모델 실험 결론 2 서론 의미역결정이란? 문장의술어를찾고, 그술어와연관된논항들사이의의미관계를결정하는문제 논항 : 의미역이부여된각명사구의미역 : 술어에대한명사구의의미역할
More information<4D6963726F736F667420576F7264202D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5>
주간기술동향 2016. 5.18. 컴퓨터 비전과 인공지능 장혁 한국전자통신연구원 선임연구원 최근 많은 관심을 받고 있는 인공지능(Artificial Intelligence: AI)의 성과는 뇌의 작동 방식과 유사한 딥 러닝의 등장에 기인한 바가 크다. 이미 미국과 유럽 등 AI 선도국에서는 인공지능 연구에서 인간 뇌 이해의 중요성을 인식하고 관련 대형 프로젝트들을
More information(JBE Vol. 24, No. 1, January 2019) (Special Paper) 24 1, (JBE Vol. 24, No. 1, January 2019) ISSN 2287-
(Special Paper) 24 1 2019 1 (JBE Vol. 24 No. 1 January 2019) https//doi.org/10.5909/jbe.2019.24.1.58 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) a) a) a) b) c) d) A Study on Named Entity Recognition
More informationDIY 챗봇 - LangCon
without Chatbot Builder & Deep Learning bage79@gmail.com Chatbot Builder (=Dialogue Manager),. We need different chatbot builders for various chatbot services. Chatbot builders can t call some external
More informationDelving Deeper into Convolutional Networks for Learning Video Representations - Nicolas Ballas, Li Yao, Chris Pal, Aaron Courville arXiv:
Delving Deeper into Convolutional Networks for Learning Video Representations Nicolas Ballas, Li Yao, Chris Pal, Aaron Courville arxiv: 1511.06432 Il Gu Yi DeepLAB in Modu Labs. June 13, 2016 Il Gu Yi
More informationMulti-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구
Siamese Neural Network 박천음 강원대학교 Intelligent Software Lab. Intelligent Software Lab. Intro. S2Net Siamese Neural Network(S2Net) 입력 text 들을 concept vector 로표현하기위함에기반 즉, similarity 를위해가중치가부여된 vector 로표현
More information자연언어처리
제 1 장자연언어처리의개념 자연언어 자연언어란? 정보전달의수단 인간고유의능력 인공언어에대응되는개념 특정집단에서사용되는모국어의집합 한국어, 영어, 불어, 독일어, 스페인어, 일본어, 중국어등 인공언어란? 특정목적을위해인위적으로만든언어 자연언어에비해엄격한구문을가짐 형식언어, 에스페란토어, 프로그래밍언어 제 1 장자연언어처리의개념 2 자연언어처리 자연언어처리란?
More information<C5D8BDBAC6AEBEF0BEEEC7D02D3336C1FD2E687770>
텍스트언어학 36, 2014, pp. 149~177 빅데이터 적정 텍스트 추출을 위한 언어학적 접근 - 학교폭력 관련 텍스트를 중심으로- 남길임(경북대) 송현주(계명대) 이수진(경북대) Nam, Kilim, Song, Hyunju, Lee, Soojin 2014. Linguistic approach for Document Classification on Big
More informationR을 이용한 텍스트 감정분석
R Data Analyst / ( ) / kim@mindscale.kr (kim@mindscale.kr) / ( ) ( ) Analytic Director R ( ) / / 3/45 4/45 R? 1. : / 2. : ggplot2 / Web 3. : slidify 4. : 5. Matlab / Python -> R Interactive Plots. 5/45
More information본문01
Ⅱ 논술 지도의 방법과 실제 2. 읽기에서 논술까지 의 개발 배경 읽기에서 논술까지 자료집 개발의 본래 목적은 초 중 고교 학교 평가에서 서술형 평가 비중이 2005 학년도 30%, 2006학년도 40%, 2007학년도 50%로 확대 되고, 2008학년도부터 대학 입시에서 논술 비중이 커지면서 논술 교육은 학교가 책임진다. 는 풍토 조성으로 공교육의 신뢰성과
More informationPowerPoint 프레젠테이션
Visual Search At SK-Planet sk-planet Machine Intelligence Lab. 나상일 1. 개발배경 2. 첫접근방법 3. 개선된방법 A. Visual recognition technology B. Guided search C. Retrieval system 개발배경 개발배경 상품검색을좀더쉽게 Key-word 트렌치코트버튺벨트
More information김기남_ATDC2016_160620_[키노트].key
metatron Enterprise Big Data SKT Metatron/Big Data Big Data Big Data... metatron Ready to Enterprise Big Data Big Data Big Data Big Data?? Data Raw. CRM SCM MES TCO Data & Store & Processing Computational
More information이보고서는 2010 년한국언론진흥재단의언론진흥기금을지원받아수행한것입니다. 보고서의내용은한국언론진흥재단의공식견해가아닌연구자의연구결과임을밝힙니다. 목 차 요약문 ⅳ Ⅰ. 서론 1 5 6 7 7 11 13 14 14 16 18 21 29 40-1 - 47 47 48 66 68 69 70 70 71 72 72 73 74-2 - < 표 > 목차 표 1 대한매일신보보급부수
More informationTHE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Jul.; 29(7),
THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. 2018 Jul.; 29(7), 550 559. http://dx.doi.org/10.5515/kjkiees.2018.29.7.550 ISSN 1226-3133 (Print) ISSN 2288-226X (Online) Human
More information4 : (Hyo-Jin Cho et al.: Audio High-Band Coding based on Autoencoder with Side Information) (Special Paper) 24 3, (JBE Vol. 24, No. 3, May 2019
4 : (Hyo-Jin Cho et al.: Audio High-Band Coding based on Autoencoder with Side Information) (Special Paper) 24 3, 2019 5 (JBE Vol. 24, No. 3, May 2019) https://doi.org/10.5909/jbe.2019.24.3.387 ISSN 2287-9137
More informationKCC2011 우수발표논문 휴먼오피니언자동분류시스템구현을위한비결정오피니언형용사구문에대한연구 1) Study on Domain-dependent Keywords Co-occurring with the Adjectives of Non-deterministic Opinion
KCC2011 우수발표논문 휴먼오피니언자동분류시스템구현을위한비결정오피니언형용사구문에대한연구 1) Study on Domain-dependent Keywords Co-occurring with the Adjectives of Non-deterministic Opinion 요약 본연구에서는, 웹문서로부터특정상품에대한의견문장을분석하는오피니언마이닝 (Opinion
More informationCh 1 머신러닝 개요.pptx
Chapter 1. < > :,, 2017. Slides Prepared by,, Biointelligence Laboratory School of Computer Science and Engineering Seoul National University 1.1 3 1.2... 7 1.3 10 1.4 16 1.5 35 2 1 1.1 n,, n n Artificial
More information(JBE Vol. 23, No. 2, March 2018) (Special Paper) 23 2, (JBE Vol. 23, No. 2, March 2018) ISSN
(Special Paper) 23 2, 2018 3 (JBE Vol. 23, No. 2, March 2018) https://doi.org/10.5909/jbe.2018.23.2.186 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) a), a) Robust Online Object Tracking via Convolutional
More information<4D F736F F F696E74202D F ABFACB1B8C8B85FBEF0BEEEC3B3B8AEBFCDB1E2B0E8B9F8BFAAC7F6C8B228C1F6C3A2C1F829>
Ebiz 연구회 2017 9 21 정의용 FrankJeong@systrangroupcom SYSTRAN History & Technology Natural Language Processing Machine Translation History MT Technique Neural Network Neural Machine Translation Data Landscape
More information3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45
3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : 20049 0/45 Define ~ Analyze Define VOB KBI R 250 O 2 2.2% CBR Gas Dome 1290 CTQ KCI VOC Measure Process Data USL Target LSL Mean Sample N StDev (Within) StDev
More information4번.hwp
Journal of International Culture, Vol.9-1 International Cultural Institute, 2016, 55~63 浅 析 影 响 韩 中 翻 译 的 因 素 A Brief Analysis on Factors that Affects Korean-Chinese Translation 韩 菁 (Han, Jing) 1) < 目
More informationMicrosoft PowerPoint - 실습소개와 AI_ML_DL_배포용.pptx
실습강의개요와인공지능, 기계학습, 신경망 < 인공지능입문 > 강의 허민오 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University 실습강의개요 노트북을꼭지참해야하는강좌 신경망소개 (2 주, 허민오 ) Python ( 프로그래밍언어 ) (2주, 김준호
More informationManufacturing6
σ6 Six Sigma, it makes Better & Competitive - - 200138 : KOREA SiGMA MANAGEMENT C G Page 2 Function Method Measurement ( / Input Input : Man / Machine Man Machine Machine Man / Measurement Man Measurement
More information2 : (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, (JBE
2: (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, 2019 7 (JBE Vol. 24, No. 4, July 2019) https://doi.org/10.5909/jbe.2019.24.4.623
More information딥러닝 첫걸음
딥러닝첫걸음 4. 신경망과분류 (MultiClass) 다범주분류신경망 Categorization( 분류 ): 예측대상 = 범주 이진분류 : 예측대상범주가 2 가지인경우 출력층 node 1 개다층신경망분석 (3 장의내용 ) 다범주분류 : 예측대상범주가 3 가지이상인경우 출력층 node 2 개이상다층신경망분석 비용함수 : Softmax 함수사용 다범주분류신경망
More information<C1DF3320BCF6BEF7B0E8C8B9BCAD2E687770>
2012학년도 2학기 중등과정 3학년 국어 수업 계획서 담당교사 - 봄봄 현영미 / 시온 송명근 1. 학습 목적 말씀으로 천지를 창조하신 하나님이 당신의 형상대로 지음 받은 우리에게 언어를 주셨고, 그 말씀의 능 력이 우리의 언어생활에도 나타남을 깨닫고, 그 능력을 기억하여 표현하고 이해함으로 아름다운 언어생활 을 누릴 뿐만 아니라 언어문화 창조에 이바지함으로써
More informationStructural SVMs 및 Pegasos 알고리즘을 이용한 한국어 개체명 인식
자연어처리소개 차례 자연어처리소개 자연어처리역사 자연어처리 자연언어 인공언어에대응되는개념 인공언어 : 특정목적을위해인위적으로만든언어 (ex. 프로그래밍언어 ) 자연언어에비해엄격한구문을가짐 특정집단에서사용되는모국어의집합 한국어, 영어, 불어, 독일어, 스페인어, 일본어, 중국어등 자연언어처리 (Natural Language Processing) 컴퓨터를통하여인간의언어를이해하고처리하는학문분야
More informationPage 2 of 5 아니다 means to not be, and is therefore the opposite of 이다. While English simply turns words like to be or to exist negative by adding not,
Page 1 of 5 Learn Korean Ep. 4: To be and To exist Of course to be and to exist are different verbs, but they re often confused by beginning students when learning Korean. In English we sometimes use the
More information2014 한국어문학회 전국학술대회 통일 시대를 위한 한국 어문학의 성찰과 모색 겨나면서 민족어 란 용어가 등장하였다. 오늘의 학술대회 발표 제목에도 민 족어 란 용어가 보인다. 민족어의 수호와 발전 (고영근, 제이앤씨, 2008)의 민족어 는 국어, 한국어, 조선어,
통일 시대를 위한 북한어 연구 방향 홍 윤 표 (연세대학교) 1. 머리말 통일 시대를 위한 북한어 연구 동향 이란 주제를 발표자에게 제시한 것은 발 표자에게 통일에 대비하여 북한어를 어떻게 연구하여야 할 것인가를 제안하라는 의미일 것이다. 통일에 대비한다 는 뜻은 무엇일까? 통일을 위한 대비 보다 는 다음 단계의 대비, 즉 통일이 되었을 때를 상정하고 그때에
More informationData Industry White Paper
2017 2017 Data Industry White Paper 2017 1 3 1 2 3 Interview 1 ICT 1 Recommendation System * 98 2017 Artificial 3 Neural NetworkArtificial IntelligenceAI 2 AlphaGo 1 33 Search Algorithm Deep Learning IBM
More information< B3EDB9AEB8F1C2F728332D362936BFF92E687770>
KIPS Tr. Software and Data Eng. Vol.3, No.6 pp.219~230 pissn: 2287-5905 동형이의어분별에의한한국어의존관계분석 219 http://dx.doi.org/10.3745/ktsde.2014.3.6.219 An Analysis of Korean Dependency Relation by Homograph Disambiguation
More information<4D6963726F736F667420576F7264202D20C3D6BDC52049435420C0CCBDB4202D20BAB9BBE7BABB>
주간기술동향 2016. 2. 24. 최신 ICT 이슈 인공지능 바둑 프로그램 경쟁, 구글이 페이스북에 리드 * 바둑은 경우의 수가 많아 컴퓨터가 인간을 넘어서기 어려움을 보여주는 사례로 꼽혀 왔 으며, 바로 그런 이유로 인공지능 개발에 매진하는 구글과 페이스북은 바둑 프로그램 개 발 경쟁을 벌여 왔으며, 프로 9 단에 도전장을 낸 구글이 일단 한발 앞서 가는
More informationPage 2 of 6 Here are the rules for conjugating Whether (or not) and If when using a Descriptive Verb. The only difference here from Action Verbs is wh
Page 1 of 6 Learn Korean Ep. 13: Whether (or not) and If Let s go over how to say Whether and If. An example in English would be I don t know whether he ll be there, or I don t know if he ll be there.
More information_KrlGF발표자료_AI
AI 의과거와현재그리고내일 AI is the New Electricity 2017.09.15 AI! 2 Near Future of Super Intelligence? *source l http://www.motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-automation 3 4 I think
More informationPowerPoint 프레젠테이션
CRM Fair 2004 Spring Copyright 2004 DaumSoft All rights reserved. INDEX Copyright 2004 DaumSoft All rights reserved. Copyright 2004 DaumSoft All rights reserved. Copyright 2004 DaumSoft All rights reserved.
More information웹 기반 네트워크 모니터링 및 분석 시스템의 설계와 구현
공학석사학위논문 Word Embedding 자질을이용한 한국어개체명인식 2015 年 12 月 창원대학교 대학원 친환경해양플랜트 FEED 공학과 최윤수 공학석사학위논문 Word Embedding 자질을이용한 한국어개체명인식 Korean Named Entity Recognition Using Word Embedding Features 지도교수차정원 이논문을공학석사학위논문으로제출함.
More information(Exposure) Exposure (Exposure Assesment) EMF Unknown to mechanism Health Effect (Effect) Unknown to mechanism Behavior pattern (Micro- Environment) Re
EMF Health Effect 2003 10 20 21-29 2-10 - - ( ) area spot measurement - - 1 (Exposure) Exposure (Exposure Assesment) EMF Unknown to mechanism Health Effect (Effect) Unknown to mechanism Behavior pattern
More information자연언어처리
제 7 장파싱 파싱의개요 파싱 (Parsing) 입력문장의구조를분석하는과정 문법 (grammar) 언어에서허용되는문장의구조를정의하는체계 파싱기법 (parsing techniques) 문장의구조를문법에따라분석하는과정 차트파싱 (Chart Parsing) 2 문장의구조와트리 문장 : John ate the apple. Tree Representation List
More informationPowerPoint 프레젠테이션
heecheol.seo@navercorp.com) www.chatbots.org 637 개영어챗봇 http://www.loebner.net/prizef/loebner-prize.html http://www.aisb.org.uk/media/files/loebnerprize2015/rose.pdf AIML (The Artificial Intelligence
More information기술 Roadmap
Deep Learning 기술의 Commerce 적용사례 2016. 12. 2. SK planet Machine Intelligence Lab. 전병기 1. SK플래닛소개 2. Deep Learning의가능성 3. 모바일신용카드인식기술 4. 자동번역기술 5. 패션이미지검색기술 6. 맺음말 SK planet 2 SK planet 3 SK planet 4 SK
More information- iii - - i - - ii - - iii - 국문요약 종합병원남자간호사가지각하는조직공정성 사회정체성과 조직시민행동과의관계 - iv - - v - - 1 - - 2 - - 3 - - 4 - - 5 - - 6 - - 7 - - 8 - - 9 - - 10 - - 11 - - 12 - - 13 - - 14 - α α α α - 15 - α α α α α α
More informationReinforcement Learning & AlphaGo
Gait recognition using a Discriminative Feature Learning Approach for Human identification 딥러닝기술및응용딥러닝을활용한개인연구주제발표 이장우 wkddn1108@kist.re.kr 2018.12.07 Overview 연구배경 관련연구 제안하는방법 Reference 2 I. 연구배경 Reinforcement
More informationMicrosoft PowerPoint - WiseNLU(ETRI, 임수종) 배포본
WiseNLU: 지식처리를 위한 자연어 의미 이해 기술 2015. 8. 21. 임수종/이충희/임준호/김현기 ETRI 지식마이닝연구실 1/69 1/63 과제개념 : WiseQA 복잡한자연어로기술된문제의의미를이해하고정답을추론하여생성함 자연어질문 연구목표 자연어질의응답 문제이해정답후보추론최적정답생성 정답, 근거, 정확도 휴먼피드백 자연어어휘 / 문장 / 문맥간의미이해기술개발
More information2013년 합격수기발표_0206_1.hwp
2013년 최종 합격자 합격수기 모음 목 차 1. 경기 최종 합격자 - 이재은... 2 2. 강원 최종 합격자 - 전석훈... 8 3. 서울 최종 합격자 - 신은주... 10 4. 경기 최종 합격자 - 장한주... 14 5. 서울 최종 합격자 - 주슬기... 22 6. 광주 최종 합격자 - 김민영... 29 7. 경기 최종 합격자 - 조성찬... 37 8.
More informationOrcad Capture 9.x
OrCAD Capture Workbook (Ver 10.xx) 0 Capture 1 2 3 Capture for window 4.opj ( OrCAD Project file) Design file Programe link file..dsn (OrCAD Design file) Design file..olb (OrCAD Library file) file..upd
More informationStage 2 First Phonics
ORT Stage 2 First Phonics The Big Egg What could the big egg be? What are the characters doing? What do you think the story will be about? (큰 달걀은 무엇일까요? 등장인물들은 지금 무엇을 하고 있는 걸까요? 책은 어떤 내용일 것 같나요?) 대해 칭찬해
More information6주차.key
6, Process concept A program in execution Program code PCB (process control block) Program counter, registers, etc. Stack Heap Data section => global variable Process in memory Process state New Running
More information4 : CNN (Sangwon Suh et al.: Dual CNN Structured Sound Event Detection Algorithm Based on Real Life Acoustic Dataset) (Regular Paper) 23 6, (J
(Regular Paper) 23 6, 2018 11 (JBE Vol. 23, No. 6, November 2018) https://doi.org/10.5909/jbe.2018.23.6.855 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) CNN a), a), a), a), a) Dual CNN Structured Sound
More information장양수
한국문학논총 제70집(2015. 8) 333~360쪽 공선옥 소설 속 장소 의 의미 - 명랑한 밤길, 영란, 꽃같은 시절 을 중심으로 * 1)이 희 원 ** 1. 들어가며 - 장소의 인간 차 2. 주거지와 소유지 사이의 집/사람 3. 취약함의 나눔으로서의 장소 증여 례 4. 장소 소속감과 미의식의 가능성 5.
More informationSlide 1
Clock Jitter Effect for Testing Data Converters Jin-Soo Ko Teradyne 2007. 6. 29. 1 Contents Noise Sources of Testing Converter Calculation of SNR with Clock Jitter Minimum Clock Jitter for Testing N bit
More informationJournal of Educational Innovation Research 2018, Vol. 28, No. 4, pp DOI: * A S
Journal of Educational Innovation Research 2018, Vol. 28, No. 4, pp.461-487 DOI: http://dx.doi.org/10.21024/pnuedi.28.4.201812.461 * - 2008 2018 - A Study on the Change of Issues with Adolescent Problem
More information<B1E2C8B9BEC828BFCFBCBAC1F7C0FC29322E687770>
맛있는 한국으로의 초대 - 중화권 음식에서 한국 음식의 관광 상품화 모색하기 - 소속학교 : 한국외국어대학교 지도교수 : 오승렬 교수님 ( 중국어과) 팀 이 름 : 飮 食 男 女 ( 음식남녀) 팀 원 : 이승덕 ( 중국어과 4) 정진우 ( 중국어과 4) 조정훈 ( 중국어과 4) 이민정 ( 중국어과 3) 탐방목적 1. 한국 음식이 가지고 있는 장점과 경제적 가치에도
More informationPowerPoint 프레젠테이션
[ 인공지능입문랩 ] SEOPT ( Study on the Elements Of Python and Tensorflow ) 인공지능 + 데이터분석목적 / 방법 / 기법 / 도구 + Python Programming 기초 + NumpyArray(Tensor) youngdocseo@gmail.com 1 *3 시간 / 회 구분일자내용비고 1 회 0309
More information<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>
한국지능시스템학회 논문지 2010, Vol. 20, No. 3, pp. 375-379 유전자 알고리즘을 이용한 강인한 Support vector machine 설계 Design of Robust Support Vector Machine Using Genetic Algorithm 이희성 홍성준 이병윤 김은태 * Heesung Lee, Sungjun Hong,
More informationuntitled
(shared) (integrated) (stored) (operational) (data) : (DBMS) :, (database) :DBMS File & Database - : - : ( : ) - : - : - :, - DB - - -DBMScatalog meta-data -DBMS -DBMS - -DBMS concurrency control E-R,
More informationNO.734 2015.4.27 ~2015.5.3 Weekly www.naeilshot.co.kr choice Let s Play Avengers! 3년 동안 귀 막고 눈 가렸으니 스포일러 걱정 없이 마음껏 즐길 시간 ISSUE 수컷의 털갈이 아마존 삼림처럼 무성한 그대여 사랑 받고 싶다면 미리미리 밀자 interview 배우 정상훈 xie xie, 양꼬치엔
More information(3) () () LOSS LOSS LOSS LOSS (4) = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100
1.,.. 2. (1) Flow + ( ) (2) Flow Flow (LINE) ) (LINE) ModelC/T LOSS DAT A Check Sheet ((%) (T PM) (LOSS) - (3) () () LOSS LOSS LOSS LOSS (4) = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100 = 100
More information<30352DC0CCC7F6C8F1343628B1B3292DBFACB1B8BCD2B1B3C1A42E687770>
한국학연구 46(2013.9.30), pp.125-165 고려대학교 한국학연구소 어휘 차원에서의 강조 실현 방식과 그 특징 1)이현희 * 국문초록 이 논문에서는 사전 뜻풀이에 강조 를 포함하는 표제어들을 중심으로 어휘 차원에서 나타나는 강조 표현의 유형과 기능, 특징 등을 살펴보았 다. 을 기준으로 뜻풀이에 강조 를 포함하는 표제어는 200여
More information사회통계포럼
wcjang@snu.ac.kr Acknowledgements Dr. Roger Peng Coursera course. https://github.com/rdpeng/courses Creative Commons by Attribution /. 10 : SNS (twitter, facebook), (functional data) : (, ),, /Data Science
More information제5장 형태소분석
제 5 장형태소분석 형태소분석 형태소의정의 의미가있는최소의단위 (minimally meaningful unit) 문법적, 관계적인뜻을나타내는단어또는단어의부분 형태소분석 단어 ( 또는어절 ) 를구성하는각형태소분리 분리된형태소의기본형및품사정보추출 2 형태소분석과정 형태소분석과정 분석후보생성 문법규칙에맞는후보생성 형태소분리와기본형추정 분석후보로부터옳은결과선택 형태소끼리의결합제약조건만족
More information퍼스널 토이의 조형적 특성에 관한 고찰
문화상품으로서의 게임 캐릭터 개발 브랜드화 전략 연구 -용쟁화투 사례 분석- Studies of game character development and strategies of making brand name as a cultural item 이 승 환 동양대학교 Contents 논문요약 Abstract 1. 서론 1-1. 연구배경 및 목적 한 온라인 커뮤니티를
More information09권오설_ok.hwp
(JBE Vol. 19, No. 5, September 2014) (Regular Paper) 19 5, 2014 9 (JBE Vol. 19, No. 5, September 2014) http://dx.doi.org/10.5909/jbe.2014.19.5.656 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) a) Reduction
More information지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월
지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., 2004 5 2009 12 KOSPI200.,. * 2009. 지능정보연구제 16 권제 1 호 2010 년 3 월 김선웅 안현철 社 1), 28 1, 2009, 4. 1. 지능정보연구제 16 권제 1 호 2010 년 3 월 Support
More informationDBPIA-NURIMEDIA
FPS게임 구성요소의 중요도 분석방법에 관한 연구 2 계층화 의사결정법에 의한 요소별 상관관계측정과 대안의 선정 The Study on the Priority of First Person Shooter game Elements using Analytic Hierarchy Process 주 저 자 : 배혜진 에이디 테크놀로지 대표 Bae, Hyejin AD Technology
More informationContents I II Project Overview 상황분석 및 여건진단 II-1 문화재청 정책 및 사업 분석 II-2 II-3 문화재청 정책 커뮤니케이션 분석 문화재청 일반인식 분석 III 조직분석 및 사례 연구 III-1 문화재청 홍보 조직 및 예산 분석 III
문화재청 중장기 종합홍보전략 수립 연구용역 결과보고 Proposed by INFOMaster 2011. 08. 10 Contents I II Project Overview 상황분석 및 여건진단 II-1 문화재청 정책 및 사업 분석 II-2 II-3 문화재청 정책 커뮤니케이션 분석 문화재청 일반인식 분석 III 조직분석 및 사례 연구 III-1 문화재청 홍보
More informationProblem New Case RETRIEVE Learned Case Retrieved Cases New Case RETAIN Tested/ Repaired Case Case-Base REVISE Solved Case REUSE Aamodt, A. and Plaza, E. (1994). Case-based reasoning; Foundational
More informationProbability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi
Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi 머신러닝의학습방법들 - Gradient descent based learning - Probability theory based learning - Information theory based learning - Distance
More information01 AI Definition 02 Deep Learning Theory - Linear Regression - Cost Function - Gradient Descendent - Logistic Regression - Activation Function - Conce
Artificial Intelligence for Deep Learning 01 AI Definition 02 Deep Learning Theory - Linear Regression - Cost Function - Gradient Descendent - Logistic Regression - Activation Function - Concept of Neural
More informationElectronics and Telecommunications Trends 인공지능을이용한 3D 콘텐츠기술동향및향후전망 Recent Trends and Prospects of 3D Content Using Artificial Intelligence Technology
Electronics and Telecommunications Trends 인공지능을이용한 3D 콘텐츠기술동향및향후전망 Recent Trends and Prospects of 3D Content Using Artificial Intelligence Technology 이승욱 (S.W. Lee, tajinet@etri.re.kr) 황본우 (B.W. Hwang,
More information<32303131C7CFB9DDB1E22028C6EDC1FD292E687770>
통일문제연구 2011년 하반기(통권 제56호) 전쟁 경험의 재구성을 통한 국가 만들기* - 역사/다큐멘터리/기억 - 1)이 명 자** Ⅰ. 들어가는 말 Ⅱ. 과 제작배경 Ⅲ. 과 비교 Ⅳ. 역사/다큐멘터리/기억 현대 남북한 체제 형성에서 주요한 전환점인 한국전 쟁은 해방 후 시작된 좌우대립과 정치적,
More informationY 1 Y β α β Independence p qp pq q if X and Y are independent then E(XY)=E(X)*E(Y) so Cov(X,Y) = 0 Covariance can be a measure of departure from independence q Conditional Probability if A and B are
More information歯제7권1호(최종편집).PDF
********* (*, **, *** ).., 2002, 7, 1, 1-12. 2-5 80.,.,..,,... :,,. (naming).., (word finding), (lexical look- up), (lexical retrieval), (word recall) (Fried- Oken, 1987). (pause),,, (naming error) (Snyder
More information2 : (EunJu Lee et al.: Speed-limit Sign Recognition Using Convolutional Neural Network Based on Random Forest). (Advanced Driver Assistant System, ADA
(JBE Vol. 20, No. 6, November 2015) (Regular Paper) 20 6, 2015 11 (JBE Vol. 20, No. 6, November 2015) http://dx.doi.org/10.5909/jbe.2015.20.6.938 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) a), a),
More information슬라이드 1
Data-driven Industry Reinvention All Things Data Con 2016, Opening speech SKT 종합기술원 최진성원장 Big Data Landscape Expansion Big Data Tech/Biz 진화방향 SK Telecom Big Data Activities Lesson Learned and Other Topics
More informationPowerPoint 프레젠테이션
RecurDyn 의 Co-simulation 와 하드웨어인터페이스적용 2016.11.16 User day 김진수, 서준원 펑션베이솔루션그룹 Index 1. Co-simulation 이란? Interface 방식 Co-simulation 개념 2. RecurDyn 과 Co-simulation 이가능한분야별소프트웨어 Dynamics과 Control 1) RecurDyn
More informationPowerPoint 프레젠테이션
엑소브레인자연어질의응답기술 김현기 언어지능연구그룹, 한국전자통신연구원 1. 엑소브레인의지능은? 2. 엑소브레인의성장과현재 3. 엑소브레인의미래 c 2017, ETRI All Rights Reserved 2 다시시작된인공지능을제대로이해하려면 인간의지능 = 학습능력 + 문제해결능력 다중지능 : 다수의지능들은항상서로교류하면서작용 (Howard Gardner, 1983)
More information목차 AI Boom Chatbot Deep Learning Company.AI s Approach AI Chatbot In Financial service 2
챗봇과 금융서비스의 결합 2017.05.25 Company.AI 강지훈 목차 1. 2. 3. 4. 5. AI Boom Chatbot Deep Learning Company.AI s Approach AI Chatbot In Financial service 2 3 인공지능 및 고급 기계 학습 딥러닝, 인공신경망, 자연어 처리 등 다양한 기술 이해, 학습, 예측
More information<C7D1B1B9B1B3C0B0B0B3B9DFBFF85FC7D1B1B9B1B3C0B05F3430B1C733C8A35FC5EBC7D5BABB28C3D6C1BE292DC7A5C1F6C6F7C7D42E687770>
기혼 여성이 사이버대학에서 상담을 전공하면서 겪는 경험 방기연 (고려사이버대학교 상담심리학과 부교수) * 요 약 본 연구는 기혼 여성의 사이버대학 상담전공 학과 입학에서 졸업까지의 경험을 이해하는 것을 목적으로 한 다. 이를 위해 연구참여자 10명을 대상으로 심층면접을 하고, 합의적 질적 분석 방법으로 분석하였다. 입학 전 에 연구참여자들은 고등교육의 기회를
More information출원국 권 리 구 분 상 태 권리번호 KR 특허 등록 10-2012-0092520 10-2012-0092518 10-2007-0071793 10-2012-0092517
기술사업성평가서 경쟁정보분석서비스 제공 기술 2014 8 출원국 권 리 구 분 상 태 권리번호 KR 특허 등록 10-2012-0092520 10-2012-0092518 10-2007-0071793 10-2012-0092517 Ⅰ 기술 구현 메커니즘 - 1 - 경쟁정보분석서비스 항목 - 2 - 핵심 기술 특징 및 주요 도면
More information아태연구(송석원)13-2-05.hwp
아태연구 제 13권 제 2호 2006년 11월 30일 pp.81~103 일본에서의 한국학연구 - 회고와 전망 宋 錫 源 경희대학교 사회과학부 정치외교학과 조교수 Ⅰ. 머리말 Ⅱ. 1945년 이전의 한국연구 Ⅲ. 1945년 이후의 한국연구 < 목 차 > Ⅳ. 맺음말 참고문헌 Abstract Key words(중심용어): 한국학(Korean studies), 식민지지배(colonial
More informationPowerPoint 프레젠테이션
I. 문서표준 1. 문서일반 (HY중고딕 11pt) 1-1. 파일명명체계 1-2. 문서등록정보 2. 표지표준 3. 개정이력표준 4. 목차표준 4-1. 목차슬라이드구성 4-2. 간지슬라이드구성 5. 일반표준 5-1. 번호매기기구성 5-2. 텍스트박스구성 5-3. 테이블구성 5-4. 칼라테이블구성 6. 적용예제 Machine Learning Credit Scoring
More information소프트웨어개발방법론
사용사례 (Use Case) Objectives 2 소개? (story) vs. 3 UC 와 UP 산출물과의관계 Sample UP Artifact Relationships Domain Model Business Modeling date... Sale 1 1..* Sales... LineItem... quantity Use-Case Model objects,
More informationInteractive Transcribed Dialog Data Normalization
[ Introduction ] Deep Learning 정상근 2015-11-03 Applications WHAT MACHINES CAN DO? (2015) Video Understanding (Real-time Genre Detection) Google Image Understanding Google http://techcrunch.com/2014/11/18/new-google-research-project-can-auto-caption-complex-images/
More information212 52,.,. 1),. (2007), (2009), (2010 ), Buzássyová, K.(1999), Bauer, L.(2001:36), Štekauer, P.(2001, 2002), Fernández-Domínguez(2009:88-91) (parole),
- - Jung, Handero. 2011. 08. The formation and listedness of nonce words - Focused on wordization of syntactic construction -. Korean Linguistics 52, 211-241. This paper aims to examine the formation and
More information#Ȳ¿ë¼®
http://www.kbc.go.kr/ A B yk u δ = 2u k 1 = yk u = 0. 659 2nu k = 1 k k 1 n yk k Abstract Web Repertoire and Concentration Rate : Analysing Web Traffic Data Yong - Suk Hwang (Research
More information81-05.PDF
. 2003 7 1 15.,.,,.,.. 1) 1986, 1986. 1,,,, 1993. 85 , 4.,, (GUI).,, CD,,,, (PDA ),,.,,. (IT ),., 1995.. 3...,,.. 1. Design,.,,, 2), ( ).,,. 3) 2 1 (. 12 ).. 2,, ( ), 2001( 4 ), 24 3,,,. 86 ), ), ), )..
More information이학석사학위논문 규칙과기계학습을이용한한국어 상호참조해결 박천음 강원대학교대학원 컴퓨터과학과
이학석사학위논문 규칙과기계학습을이용한한국어 상호참조해결 박천음 강원대학교대학원 컴퓨터과학과 2016 년 02 월이창기교수지도 이학석사학위논문 규칙과기계학습을이용한한국어 상호참조해결 Coreference Resolution for Korean using Rule and Machine Learning 강원대학교대학원 컴퓨터과학과 박천음 박천음의석사학위논문을 합격으로판정함
More information<4D6963726F736F667420576F7264202D20C3D6BDC52049435420C0CCBDB4202D20BAB9BBE7BABB>
최신 ICT 이슈 최신 ICT 이슈 알파고의 심층강화학습을 뒷받침한 H/W 와 S/W 환경의 진화 * 알파고의 놀라운 점은 바둑의 기본규칙조차 입력하지 않았지만 승리 방식을 스스로 알아 냈다는 것이며, 알파고의 핵심기술인 심층강화학습이 급속도로 발전한 배경에는 하드웨 어의 진화와 함께 오픈소스화를 통해 발전하는 AI 관련 소프트웨어들이 자리하고 있음 2014
More information2 출판 만화산업 실태조사 1 Ⅰ. 출판 만화산업 실태조사 3 출판 만화산업 실태조사 1. 콘텐츠업체 실태조사 개요 2. 출판 만화업체 실태조사 분석결과
1 출판 만화산업 실태조사 2016. 1 콘텐츠산업 동향분석보고서 2 출판 만화산업 실태조사 1 Ⅰ. 출판 만화산업 실태조사 3 출판 만화산업 실태조사 1. 콘텐츠업체 실태조사 개요 2. 출판 만화업체 실태조사 분석결과 Ⅰ 출판 만화산업 실태조사 4 출판 만화산업 실태조사 1 콘텐츠업체 실태조사 개요 1.1 조사목적 분기별 콘텐츠업체 실태조사
More information국립국어원 2011-01-28 발간 등록 번호 11-1371028-000350-01 신문과 방송의 언어 사용 실태 조사 연구 책임자: 남영신 국립국어원 2011-01-28 발간 등록 번호 11-1371028-000350-01 신문과 방송의 언어 사용 실태 조사 연구 책임자: 남영신 2011. 11. 16. 제 출 문 국립국어원장 귀하 2011년 신문과 방송의
More information빅데이터_DAY key
Big Data Near You 2016. 06. 16 Prof. Sehyug Kwon Dept. of Statistics 4V s of Big Data Volume Variety Velocity Veracity Value 대용량 다양한 유형 실시간 정보 (불)확실성 가치 tera(1,0004) - peta -exazetta(10007) bytes in 2020
More information02본문
46 특집 : 딥러닝기반방송미디어기술 특집 딥러닝기반방송미디어기술 딥러닝기반의음성 / 오디오기술 Speech/Audio Processing based on Deep Learning 이영한 / KETI Ⅰ. 서론 인간의두뇌를모델링하는뉴럴네트워크연구는 1940 년대신경세포의모델링부터시작하여현재까지다양한기술이축적되어왔다. 특히 backpropagation 이제안된이후에
More information교육정책연구 2005-지정-52 공무원 채용시험이 대학교육, 노동시장에 미치는 영향분석 및 공무원 채용제도 개선방안 2005. 12 연구책임자 : 오 호 영 (한국직업능력개발원 부연구위원) 이 정책연구는 2005년도 교육인적자원부 인적자원개발 정책연구비 지원에 의 한
교육정책연구 2005-지정-52 공무원 채용시험이 대학교육, 노동시장에 미치는 영향분석 및 공무원 채용제도 개선방안 연 구 기 관 : 한국직업능력개발원 연구책임자 : 오 호 영 교육인적자원부 교육정책연구 2005-지정-52 공무원 채용시험이 대학교육, 노동시장에 미치는 영향분석 및 공무원 채용제도 개선방안 2005. 12 연구책임자 : 오 호 영 (한국직업능력개발원
More information슬라이드 1
비정형텍스트로부터감성정보추출 AIEXPO 박진우 / 기술개발본부장 INSERT LOGO 목차 I Overview II 감성분석방법 III 감성분석시고려요소 IV Diquest Sentiment Analyzer 소개 I. Overview Opinion mining (Sentiment Analysis) Analysis the sentiment of a person
More informationDBPIA-NURIMEDIA
김진주 김수연. 초등학생대상장애이해교육에활용된동화에나타난장애인관분석. 특수교육, 2013, 제12권, 제2호, 135-160... 20.,,. 4.,,.,..... 주제어 : 장애이해교육, 동화, 장애인관 1. ( 1 ) Incheon Munhak Elementary School ( )(, E-mail: sooyoun@ginue.ac.kr) Dept. of
More informationMicrosoft PowerPoint - 알고리즘_5주차_1차시.pptx
Basic Idea of External Sorting run 1 run 2 run 3 run 4 run 5 run 6 750 records 750 records 750 records 750 records 750 records 750 records run 1 run 2 run 3 1500 records 1500 records 1500 records run 1
More information