PowerPoint Presentation

Similar documents
Structural SVMs 및 Pegasos 알고리즘을 이용한 한국어 개체명 인식

Let G = (V, E) be a connected, undirected graph with a real-valued weight function w defined on E. Let A be a set of E, possibly empty, that is includ

자연언어처리

untitled

DIY 챗봇 - LangCon


김기남_ATDC2016_160620_[키노트].key

, ( ) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). *

KCC2011 우수발표논문 휴먼오피니언자동분류시스템구현을위한비결정오피니언형용사구문에대한연구 1) Study on Domain-dependent Keywords Co-occurring with the Adjectives of Non-deterministic Opinion

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>

(, sta*s*cal disclosure control) - (Risk) and (U*lity) (Synthe*c Data) 4. 5.

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

Journal of Educational Innovation Research 2018, Vol. 28, No. 1, pp DOI: * A Analysis of

Vol.259 C O N T E N T S M O N T H L Y P U B L I C F I N A N C E F O R U M

R을 이용한 텍스트 감정분석

example code are examined in this stage The low pressure pressurizer reactor trip module of the Plant Protection System was programmed as subject for

ApplicationKorean.PDF

27 2, 17-31, , * ** ***,. K 1 2 2,.,,,.,.,.,,.,. :,,, : 2009/08/19 : 2009/09/09 : 2009/09/30 * 2007 ** *** ( :

유의사항 Information marking example 1 3 4

鍮뚮┰硫붾돱??李⑤낯

딥러닝 첫걸음

사회통계포럼

딥러닝NLP응용_이창기

Journal of Educational Innovation Research 2019, Vol. 29, No. 1, pp DOI: * Suggestions of Ways

감각형 증강현실을 이용한

untitled

Journal of Educational Innovation Research 2017, Vol. 27, No. 3, pp DOI: (NCS) Method of Con

Structural SVMs 및 Pegasos 알고리즘을 이용한 한국어 개체명 인식

지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월

을 할 때, 결국 여러 가지 단어를 넣어서 모두 찾아야 한다는 것이다. 그 러나 가능한 모든 용어 표현을 상상하기가 쉽지 않고, 또 모두 찾기도 어 렵다. 용어를 표준화하여 한 가지 표현만 쓰도록 하여야 한다고 하지만, 말은 쉬워도 모든 표준화된 용어를 일일이 외우기는

Journal of Educational Innovation Research 2019, Vol. 29, No. 1, pp DOI: : * Discussions on

<B3EDB9AEC1FD5F3235C1FD2E687770>

02김헌수(51-72.hwp

step 1-1

텀블러514

자연언어처리

sna-node-ties

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션

Buy one get one with discount promotional strategy

00½ÃÀÛ 5š

슬라이드 1


4 CD Construct Special Model VI 2 nd Order Model VI 2 Note: Hands-on 1, 2 RC 1 RLC mass-spring-damper 2 2 ζ ω n (rad/sec) 2 ( ζ < 1), 1 (ζ = 1), ( ) 1

融合先验信息到三维重建 组会报 告[2]

11이정민

#KM-250(PB)

public key private key Encryption Algorithm Decryption Algorithm 1


<4D F736F F D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5>

11¹ÚÇý·É

제품 특징 PC에서 마우스/키보드로 사용 Motion Ring은 사용자의 동작을 인식하는 3D 공간 인식 센서 가 장착되어 있어 정해진 제스처를 사용하여 마우스나 키보드 로 사용할 수 있습니다. - 일반적인 마우스와 키보드 없이 인터넷 웹 페이지를 사용하 거나 프레젠테

RNN & NLP Application

Microsoft PowerPoint - 27.pptx

Journal of Educational Innovation Research 2017, Vol. 27, No. 4, pp DOI: A Study on the Opti

Chap 6: Graphs

0125_ 워크샵 발표자료_완성.key

232 도시행정학보 제25집 제4호 I. 서 론 1. 연구의 배경 및 목적 사회가 다원화될수록 다양성과 복합성의 요소는 증가하게 된다. 도시의 발달은 사회의 다원 화와 밀접하게 관련되어 있기 때문에 현대화된 도시는 경제, 사회, 정치 등이 복합적으로 연 계되어 있어 특

github_introduction.key

09구자용(489~500)

chap01_time_complexity.key

강의10

DBPIA-NURIMEDIA

Microsoft PowerPoint - ch10 - 이진트리, AVL 트리, 트리 응용 pm0600

- 1 -

3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45

Journal of Educational Innovation Research 2019, Vol. 29, No. 2, pp DOI: * The Effect of Paren

한국성인에서초기황반변성질환과 연관된위험요인연구

Microsoft PowerPoint - PL_03-04.pptx

230 한국교육학연구 제20권 제3호 I. 서 론 청소년의 언어가 거칠어지고 있다. 개ㅅㄲ, ㅆㅂ놈(년), 미친ㅆㄲ, 닥쳐, 엠창, 뒤져 등과 같은 말은 주위에서 쉽게 들을 수 있다. 말과 글이 점차 된소리나 거센소리로 바뀌고, 외 국어 남용과 사이버 문화의 익명성 등

大学4年生の正社員内定要因に関する実証分析

DBPIA-NURIMEDIA

확률과통계 강의자료-1.hwp

High Resolution Disparity Map Generation Using TOF Depth Camera In this paper, we propose a high-resolution disparity map generation method using a lo

Journal of Educational Innovation Research 2016, Vol. 26, No. 1, pp.1-19 DOI: *,..,,,.,.,,,,.,,,,, ( )

#KM560

PowerChute Personal Edition v3.1.0 에이전트 사용 설명서

PHP & ASP

<31325FB1E8B0E6BCBA2E687770>

김경재 안현철 지능정보연구제 17 권제 4 호 2011 년 12 월

Old View of the World (,,, ). 2

[ReadyToCameral]RUF¹öÆÛ(CSTA02-29).hwp

Journal of Educational Innovation Research 2018, Vol. 28, No. 3, pp DOI: NCS : * A Study on

5장 스택

review hwp

Journal of Educational Innovation Research 2019, Vol. 29, No. 2, pp DOI: * Early Childhood T

#Ȳ¿ë¼®

¨ë Áö¸®ÇÐȸÁö-¼Û°æ¾ðOK

Chap 6: Graphs

Journal of Educational Innovation Research 2018, Vol. 28, No. 4, pp DOI: 3 * The Effect of H

Page 2 of 6 Here are the rules for conjugating Whether (or not) and If when using a Descriptive Verb. The only difference here from Action Verbs is wh

untitled

#DPK5(PB)(9.8.19)

4.18.국가직 9급_전산직_컴퓨터일반_손경희_ver.1.hwp

WISHBONE System-on-Chip Interconnection Architecture for Portable IP Cores

Your title goes here

Microsoft Word - USB복사기.doc

PowerPoint 프레젠테이션

DBPIA-NURIMEDIA

Transcription:

Dependency Parser 자연언어처리

Probabilistic CFG (PCFG) - CFG - PCFG with saw with saw astronomers ears saw stars telescope astronomers ears saw stars telescope

PCFG example

Repeated work

Parsing PCFG: CKY CKY (Cocke, Kasami and Younger) 알고리즘 Dynamic Programing: O( P *n 3 ) C[i][j][Z] = Probability, B[i][j][Z] = back pointer for i = 1 n-1 for j = i+1 n for k = i j-1 for Z X Y in P v = C[i][k][X] * C[k+1][j][Y] * p(z X Y) if v > C[i][j][Z] C[i][j][Z] = v B[i][j][Z] = {(i,k,x), (k+1,j,y)}

Lexicalization 성능향상을위해 O( P *n 5 )

Re-ranking 성능향상을위해 O(k* P *n 3 ) PCFG 를이용 k-best parse tree 생성 Perceptron, SVM 등을이용하여 re-ranking

Dependency Structure Dependency structure Head-dependent relations Functional categories 응용에직접적용하기쉬움! Predicate-argument structure IE, QA, SMT 등 Phrase structure (CFG) Phrases Structural categories CFG

최근동향 Data-Driven Dependency Parsing 기계학습 (machine learning) 을이용 문법대신 training data (tree bank) 사용 언어에독립적 : 영어 Parser 를한국어에적용가능 Grammar-driven: 언어에종속적 Two models of dependency parsing Graph-based model Transition-based model

Graph-based Dependency Parsing Dependency structure 를 Graph(directed Tree) 로표현 V: nodes (w i, 단어 ) 집합 A: arcs (w i, w j, l), l 은 label: w i w j Dependency parsing Maximum Spanning Tree (MST) Problem : O(n 2 ) or O(n 3 )

Minimum(or Maximum) Spanning Tree 1 Kruskal s algorithm 1 A = 2 foreach v G.V: 3 MAKE-SET(v) 4 foreach (u, v) ordered by weight(u, v), increasing: 5 if FIND-SET(u) FIND-SET(v): 6 A = A {(u, v)} 7 UNION(u, v) 8 return A

Minimum(or Maximum) Spanning Tree 2 Prim s algorithm 1. Initialize a tree with a single vertex, chosen arbitrarily from the graph. 2. Grow the tree by one edge: Of the edges that connect the tree to vertices not yet in the tree, find the minimumweight edge, and transfer it to the tree. 3. Repeat step 2 (until all vertices are in the tree).

Arc weight: Machine Learning Arc features: f(i,j,k) : words w i and w j, label l k head=saw & dependent=with head-pos=verb & dependent-pos=preposition in-between-pos=noun, arc-distance=3 arc-direction=right

Learning Parameters (w) Averaged Perceptron, Structural SVM, Dependency parsing

Higher-order Model 성능향상 Normal (arc-factored = first-order): O(n 2 ) or O(n 3 ) Second-order model: O(n 3 ) Third-order model: O(n 4 )

Transition-based Dependency Parsing Shift-Reduce dependency parsing Configuration: parser state Transition: parsing action (parser state update) Ex. Arc-Eager parsing Action

Example: Arc-Eager Parsing 1 Shift Left-Arc(nmod) Shift Left-Arc(sbj) Right-Arc(pred)

Right-Arc(pred) Example: Arc-Eager Parsing 2 Shift Left-Arc(nmod) Right-Arc(obj)

Right-Arc(obj) Example: Arc-Eager Parsing 3 Right-Arc(nmod) Shift Left-Arc(nmod)

Left-Arc(nmod) Example: Arc-Eager Parsing 4 Right-Arc(pc) Reduce Reduce

Example: Arc-Eager Parsing 5 Reduce Reduce Reduce

Right-Arc(p) Example: Arc-Eager Parsing 6

Classifier-Based Parsing Data-driven deterministic parsing Oracle(Configuration) = Parser action (shift, ) An oracle can be approximated by a classifier A Classifier can be trained using treebank data SVM, Perceptron, Complexity: O(n) Feature:

Greedy Local Search 속도가매우빠름 : O(n) 앞단계에서오류가발생하면뒷단계로오류가전파 오류를복구할수있는방법이없음 성능저하 이러한문제를해결하기위해 Beam Search 등장

Beam Search Beam Search 를수행하여항상상위 b (beam size) 개의 parsing state 를유지 앞단계에서오류 (top 이아닌경우 ) 가발생 Beam 에유지 뒷단계에서점수상승 ( 다시 top) 오류복구 성능향상 항상 b 개의 Beam 을유지 : O(b*n) Beam Search 의학습 Averaged Perceptron + early update

영어의존파서성능 영어의존파서성능 UAS 94.0%, LAS 92.9% (beam=32, dev_set) Test set: UAS 93.61% UAS(test) Comp. Charniak 00 (PCFG) 92.5 O(n 5 ) McDonald 06 (MST) 91.5 O(n 3 ) Zhang 08 combo (beam=64) 92.1 O(n 2 ) Koo 08 semi-sup 93.16 O(n 4 ) Semi-sup-SCM 09 93.79 O(n 4 ) Koo 10 third-order 93.04 O(n 4 ) Huang 10 DP (beam=16) 92.1 O(bn) Zhang 11 rich-feat (beam=64) 92.9 O(bn) Top-down TP 12 (beam=32) 92.6 O(bn 2 ) 강원대 : rich+semi-sup+we feat (beam=32) 강원대 : rich+semi-sup+we feat (beam=64) 93.61 94 (dev) 93.82 93.95(dev) O(bn) O(bn)

한국어의존파서예

전이기반의한국어의존구문분석 : Forward Transition-based(Arc-Eager): O(N) 예 : CJ 그룹이 1 대한통운 2 인수계약을 3 체결했다 4 [root], [CJ 그룹이 1 대한통운 2 ], {} 1: Shift [root CJ 그룹이 1 ], [ 대한통운 2 인수계약을 3 ], {} 2: Shift [root CJ 그룹이 1 대한통운 2 ], [ 인수계약을 3 체결했다 4 ], {} 3: Left-arc(NP_MOD) [root CJ 그룹이 1 ], [2 인수계약을 3 체결했다 4 ], {( 인수계약을 3 대한통운 2 )} 4: Shift [root CJ 그룹이 1 2 인수계약을 3 ], [ 체결했다 4 ], {( 인수계약을 3 대한통운 2 )} 5: Left-arc(NP_OBJ) [root CJ 그룹이 1 ], [3 체결했다 4 ], {( 체결했다 4 인수계약을 3 ), } 6: Left-arc(NP_SUB) [root], [(1,3) 체결했다 4 ], {( 체결했다 4 CJ 그룹이 1 ), } 7: Right-arc(VP) [root4 (1,3) 체결했다 4 ], [], {(root 체결했다 4 ), }

전이기반의한국어의존구문분석 : Backward Transition-based(Arc-Eager) + Backward: O(N) 예 : CJ 그룹이대한통운인수계약을체결했다 [root], [ 체결했다 4 인수계약을 3 대한통운 2 CJ 그룹이 1 ], {} 1: Right-arc(VP) [root4 체결했다 4 ], [ 인수계약을 3 ], {(root 체결했다 4 )} 2: Right-arc(NP_OBJ) [root4 체결했다 4 3 인수계약을 3 ], [ 대한통운 2 ], {( 체결했다 4 인수계약을 3 ), } 3: Right-arc(NP_MOD) [root4 체결했다 4 3 인수계약을 3 2 대한통운 2 ], [CJ 그룹이 1 ], {( 인수계약을 3 대한통운 2 ), } 4: Reduce [root4 체결했다 4 3 인수계약을 3 2], [CJ 그룹이 1 ], {( 인수계약을 3 대한통운 2 ), } 5: Reduce [root4 체결했다 4 3], [CJ 그룹이 1 ], {( 인수계약을 3 대한통운 2 ), } 6: Right-arc(NP_SUB) [root4 체결했다 4 (1,3) CJ 그룹이 1 ], [], {( 체결했다 4 CJ 그룹이 ), }

Structural SVM 기반의한국어의존구문분석 방법론 UAS LAS 1. Arc-Eager(Labeled) 86.92 84.19 2. Arc-Eager(Labeled + Reverse order) 87.32 84.56 3. Arc-Eager(Labeled + Reverse order) + 자질추가 (baseline) 88.22 (0) 85.29 (0) 4. (3) + Word Embedding (WE) 자질 88.30 (+0.08) 85.47 (+0.18) 5. (3) + WE + Word Cluster (WC) 자질 88.34 (+0.12) 85.51 (+0.22) 6. (3) + WE + WC + Mutual Information (MI) 자질 88.45 (+0.23) 85.63 (+0.34) 7. (6) + 어절의첫두단어 lexical/pos 자질 88.54 (+0.32) 85.69 (+0.40) 8. (7) WE : update WC 88.43 (+0.21) 85.53 (+0.24) 9. (7) WE : update WC, update POS 89.15 (+0.93) 86.93 (+1.64) 10. (7) WE : update WC, update POS, update MI 89.26 (+1.04) 86.99 (+1.70) 11. (10) : ( 의사 ) 보조용언처리 89.99 (+1.77) 87.74 (+2.45) 12. (11) : Beam search with Averaged Perceptron (beam=4) (6월) 90.02 (+1.80) 87.48 (+2.19)

딥러닝기반한국어의존구문분석 Transition-based + Backward O(N) 세종코퍼스 의존구문변환 보조용언 / 의사보조용언후처리 Deep Learning 기반 ReLU(> Sigmoid) + Dropout Korean Word Embedding NNLM, Ranking(hinge, logit) Word2Vec Feature Embedding POS (stack + buffer) 자동분석 ( 오류포함 ) Dependency Label (stack) Distance information Valency information Mutual Information 대용량코퍼스 자동구문분석

실험결과 기존연구 : UAS 85~88% Structural SVM 기반성능 : UAS=90.02% LAS=87.48% Pre-training > no Pre. Dropout > no Dropout ReLU > Sigmoid MI feat. > no MI feat. Word Embedding 성능순위 1. NNLM 2. Ranking(logit loss) 3. Word2vec 4. Ranking(hinge loss)