Probabilistic graphical models: Assignment 3 Seung-Hoon Na June 7, Gibbs sampler for Beta-Binomial Binomial및 beta분포는 다음과 같이 정의된다. k Bin(n, θ):

Similar documents
R을 이용한 텍스트 감정분석

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오.

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제

59

확률과통계 강의자료-1.hwp




특집-5

untitled

164

텀블러514

cat_data3.PDF

<BACFC7D1B3F3BEF7B5BFC7E22D3133B1C733C8A BFEB2E687770>



Introduction to Topic Models

Journal of Educational Innovation Research 2018, Vol. 28, No. 4, pp DOI: * A S

Artificial Intelligence: Assignment 3 Seung-Hoon Na November 30, Sarsa와 Q-learning Windy Gridworld Windy gridworld는 (Sutton 교재 연습문제 6.5) 다음

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할

cha4_ocw.hwp

1

歯4차학술대회원고(장지연).PDF


10김묘선

제 1 부 연구 개요


<C7A5C1F620BEE7BDC4>


Artificial Intelligence: Assignment 2 Seung-Hoon Na October 20, Map coloring 본 과제에서는 M N Grid world 지도상에서 각 region이 rectangle또는 polyomino유형으로 주

슬라이드 1

<BBE7B8B3B4EBC7D0B0A8BBE7B9E9BCAD28C1F8C2A5C3D6C1BE E687770>

2 전개과정 지도계획 주기 주제 활동 방법 및 내용 성취수준 주제발현 브레인스토밍 유목화 1 한식 알아보기 요리법 연구하고, 학고역할분담 조리 계획하기 생명과 음식 영화감상하기 생명과 음식 토론하기 한식 식사예절 알아보기 6 음식 주제발현, 브레인스토밍, 유

2-TAIYO空気圧機器ー_Vol.12_CN0517.pdf

지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월

08~15_º¸°ÇÀÇ·áºÐ¾ßODAÆò°¡

토픽모델링을위한시뮬레이터도구개발 정영섭, 임채균, 최호진 한국과학기술원전산학과대전광역시유성구구성동대학로 291 {pinode, rayote, 요약 : 본연구는매개변수추론공식을자동유도하는모듈을이용하여토픽모델링시뮬레이터를개발함으로써, 토

Precipitation prediction of numerical analysis for Mg-Al alloys

확률 및 분포

Web-Scale Bayesian Click-Through Rate Prediction for Sponsored Search Advertising in Microsoft s Bing Search Engine Thore Graepel et al., ICML, 2010 P

조사연구 권 호 연구논문 한국노동패널조사자료의분석을위한패널가중치산출및사용방안사례연구 A Case Study on Construction and Use of Longitudinal Weights for Korea Labor Income Panel Survey 2)3) a

김기남_ATDC2016_160620_[키노트].key

DBPIA-NURIMEDIA

사회통계포럼

Print

09권오설_ok.hwp

12(3) 10.fm

OR MS와 응용-03장

nonpara1.PDF

2.2, Wm -2 K -1 Wm -2 K -2 m 2 () m 2 m 2 ( ) m -1 s, Wm -2 K -1 Wsm -3 K -1, Wm -2 K -1 Wm -2 K -2 Jm -3 K -1 Wm -2 K -1 Jm -2 K -1 sm -1 Jkg -1 K -1

methods.hwp


Sequences with Low Correlation

메타분석: 통계적 방법의 기초

Microsoft Word _LG전자_3Q13 프리뷰_.doc

Buy one get one with discount promotional strategy

656


REVIEW CHART 1

생존분석의 추정과 비교 : 보충자료 이용희 December 12, 2018 Contents 1 생존함수와 위험함수 생존함수와 위험함수 예제: 지수분포

07( ) CPLV16-17.hwp

특집....,.,., (good jobs) (rent-sharing) (fairness)..... Ⅱ. 임금과생산성구조의분석모형 ) 1),,,, 2_ 노동리뷰

모바일 플랫폼 기반

hwp

제 1 부 연구 개요

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할

untitled

* c03âÆÇ/°ÇÃà/¹®ÈŁš

<4D F736F F D20C3A520BCD2B0B32DB4D9B0A1BFC0B4C220B0E6C1A6C1F6C1F8322E646F63>

4 CD Construct Special Model VI 2 nd Order Model VI 2 Note: Hands-on 1, 2 RC 1 RLC mass-spring-damper 2 2 ζ ω n (rad/sec) 2 ( ζ < 1), 1 (ζ = 1), ( ) 1

교육정책연구 2005-지정-52 공무원 채용시험이 대학교육, 노동시장에 미치는 영향분석 및 공무원 채용제도 개선방안 연구책임자 : 오 호 영 (한국직업능력개발원 부연구위원) 이 정책연구는 2005년도 교육인적자원부 인적자원개발 정책연구비 지원에 의 한

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할

歯Product1.PDF

Lecture12_Bayesian_Decision_Thoery

Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi

PowerPoint 프레젠테이션

에너지경제연구 Korean Energy Economic Review Volume 18, Number 1, March 2019 : pp 에너지전환정책및고령화가국민경제에미치는영향 : 확률적중첩세대일반균형모형 (Stochastic Overlapping Genera

책임연구기관

체의원소를계수로가지는다항식환 Theorem 0.1. ( 나눗셈알고리듬 (Division Algorithm)) F 가체일때 F [x] 의두다항식 f(x) = a 0 + a 1 x + + a n x n, a n 0 F 와 g(x) = b 0 + b 1 x + + b m x

100, Jan. 21, 호, Jan. 21, , Jan. 21, 2005

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할

제 출 문 환경부장관 귀하 본 보고서를 폐기물관리 규제개선 방안연구 에 관한 최종보고서로 제출합니다 연구기관 한국산업폐기물처리공제조합 연구책임자 연 구 원 연구보조원 이 남 웅 황 연 석 은 정 환 백 인 근 성 낙 근 오 형 조 부이사장 상근이사 기술팀장 법률팀장 기

마지막 변경일 2018년 5월 7일 ** 이항분포와 정규분포의 관계 ** Geogebra와 수학의 시각화 책의 3.2소절 내용임. 가장 최근 파일은 링크를 누르면 받아 보실 수 있습니다.


Vector Differential: 벡터 미분 Yonghee Lee October 17, 벡터미분의 표기 스칼라미분 벡터미분(Vector diffrential) 또는 행렬미분(Matrix differential)은 벡터와 행렬의 미분식에 대 한 표

(, sta*s*cal disclosure control) - (Risk) and (U*lity) (Synthe*c Data) 4. 5.

DBPIA-NURIMEDIA

歯엑셀모델링

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할

44-4대지.07이영희532~

Communications of the Korean Statistical Society Vol. 15, No. 4, 2008, pp 국소적 강력 단위근 검정 최보승1), 우진욱2), 박유성3) 요약 시계열 자료를 분석할 때, 시계열 자료가 가지고 있는

Structure and Interpretation of Computer Programs: Assignment 3 Seung-Hoon Na October 4, George (아래 3개의 문제에 대한 구현이 모두 포함된 george.rkt파일을 제출하시오.

3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45

26(3D)-17.fm

유한차분법을 이용한 다중 기초자산 주가연계증권 가격결정

¼º¿øÁø Ãâ·Â-1

개의 관측치에 복수의 특성치가 대응될 수 있다는 특징을 가지게 된다. 인도부페 프로세 스로 대표되는 잠재특성모형에 대한 이론 및 응용 연구는 현재 베이지안 연구자들 사이에 가장 뜨거운 주제 중 하나이다. 잠재변수를 이용한 모형화는, 베이지안 모형에서의 핵심적인 기법 중

<4D F736F F F696E74202D2035BBF3C6F2C7FC5FBCF8BCF6B9B0C1FA2E BC8A3C8AF20B8F0B5E55D>

슬라이드 제목 없음

3.2 함수의정의 Theorem 6 함수 f : X Y 와 Y W 인집합 W 에대하여 f : X W 는함수이다. Proof. f : X Y 가함수이므로 f X Y 이고, Y W 이므로 f X W 이므로 F0이만족된다. 함수의정의 F1, F2은 f : X Y 가함수이므로

Transcription:

Probabilistic graphical models: Assignment 3 Seung-Hoon Na June 7, 207 Gibbs sampler for Beta-Binomial Binomial및 beta분포는 다음과 같이 정의된다. k Bin(n, θ): binomial distribution은 성공확률이 θ인 시도에서, n번 시행 중 k번 성공할 확률 분포로 을 따르는 랜덤 변수 (random variable)로 pmf (probability mass function)는 다음과 같다. Bin(k n, θ), n k θ ( θ)n k k () θ Beta(a, b): Beta distribution는 도메인이 구간 [0, ]인 분포로 다음과 같이 정의된다. Beta(θ a, b), θa ( θ)b B(a, b) (2) 여기서 θ는 구간 [0, ]에 속하는 원소이고, B(a, b)는 beta함수로 다음과 같이 정의된다. B(a, b) = Γ(a)Γ(b) Γ(a + b) (3) Beta-binomial는 binomial 분포의 parameter θ에 대한 prior로 beta분포를 취 하는 directed graphical model모델로 sampling 과정은 다음과 같다. θ Beta(a, b) k Bin(n, θ). Joint distribution for Beta-Binomial Beta-binomial의 joint distribution P (k, θ a, b, n) = Beta(θ a, b)bin(n, θ) 을 간 단히 정리하시오. P (k, θ a, b, n) = k는 어느 랜덤 변수 (random variable)의 값이며, 단순화를 위해 랜덤 변수는 생략하였다. 보다 엄 밀하게 random variable X가 주어질때, X Bin(n, θ)이면, 이에 대한 확률 분포는 Bin(X = k n, θ) 로 표기된다.

.2 Full conditionals for Beta-Binomial 위의 P (k, θ a, b, n)을 이용하여 Beta-Binomial의 full conditionals인 P (θ k, a, b, n) 과 P (k θ, a, b, n)을 유도하시오. P (θ k, a, b, n) = P (k θ, a, b, n) = (4).3 Gibbs sampling for Beta-Binomial 위의 full conditional distribution을 이용하여 marginal probability P (k a, b, n) = R P (k θ, a, b, n)p (θ a, b)dθ를 근사화시키는 Gibbs sampling algorithm 을 작성 0 하시오..4 Exact inference: Margin probability for Beta-Binomial θ에 해당되는 variable을 제거하여 P (k a, b, n) = 간략히 하시오..5 R 0 P (k θ, a, b, n)p (θ a, b)dθ를 Implementation: Gibbs sampling for Beta-Binomial (python code제출) 위에서 작성된 Gibbs sampling for Beta-Binomial을 python으로 구현하고 sample size를 500,n = 6으로 놓고, 다음의 a, b에 대해서 Exact inference결과와 Gibbs sampling으로 approximation된 결과를 비교하는 histograms을 보이시오. a = 2, b = 2일때 a = 2, b = 5일때 a =, b = 0일때 2 Gibbs sampler for Dirichlet-Multinomial Multimomial, Multimoulli, 및 Dirichlet분포는 다음과 같이 정의된다. x Mu(n, θ): color balls로 구성된 임의의 박스에서 2, θ = (θ,, θ ) 에서 θj 는 j번째 color ball를 추출할 확률을 의미할때, multinomial distribution은 n번의 시행 중, x = (x,, x )에서 xj 는 j번째 color ball이 추출된 횟수로 다음과 같이 정의된다. Mu(x n, θ), 2 는 n x x x θj j j= ball의 color종류의 수이고 박스에 있는 공의 갯수는 unknown이라 가정한다. 2 (5)

x Mu(, θ): Multimomial 분포에서 n = 인 특수한 경우로 categorical 또는 discrete distribution이라고도 하고, 다음과 같이 정의된다. Cat(x θ) = Mu(x, θ), x θj j (6) j= n P o θ Dir(α): 도메인이 probability simplex S = θ k= xk =, 0 θk 일때 Dirichlet distribution은 다음과 같이 정의된다. Dir(θ α), αk θk B(α) (7) k= 여기서 B(α)는 벡터로 일반화된 beta함수로 다음과 같이 정의된다. B(α) = Γ(α ) Γ(α ) Γ(α + + α ) (8) Dirichlet-multinomial (또는 Dirichlet Compound Multinomial)는 multinomial 분포의 parameter인 θ에 대한 prior로 Dirichlet분포를 취하는 directed graphical model모델로 sampling 과정은 다음과 같다. θ Dir(α) x Mu(n, θ) 2. Joint distribution for Dirichlet-Multinomial Dirichlet-Multinomial의 joint distribution P (x, θ α, n) = Dir(θ α)m u(x n, θ) 을 간단히 정리하시오. P (x, θ α, n) = 2.2 Full conditionals for Dirichlet-Multinomial 위의 P (x, θ α, n)을 이용하여 Dirichlet-Multinomial의 full conditionals인 P (θ x, α, n) 과 P (x θ, n)을 유도하시오. P (θ x, α, n) = P (x θ, n) = (9) 2.3 Gibbs sampling for Dirichlet-Multinomial 위의 full conditional distribution을 이용하여 marginal probability P (x α, n)를 근사화시키는 Gibbs sampling algorithm 을 작성하시오 (block sampling을 이용). 2.4 Exact inference: Margin probability for Dirichlet-Multinomial θ에 해당되는 variable을 제거하여 P (x α, n)에 대한 간략식을 유도하시오. 3

2.5 Implementation: Gibbs sampling for Dirichlet-Multinomial (python code제출) 위에서 작성된 Gibbs sampling for Dirichlet-Multinomial을 python으로 구현하고 sample size를 500, n = 6으로 놓고, 다음의 a에 대해서 Exact inference결과와 Gibbs sampling으로 approximation된 결과를 비교하시오. =3, α = (3, 3, 5) =3, α = (3, 0, 5) =5, α = (3, 5, 5, 8, 0) 3 Collapsed Gibbs sampler for Latent Dirichlet Allocation (LDA) Figure : A graphical model for LDA Figure 은 LDA에 대한 graphical model로, 토픽의 갯수가 이고, Nd 의 단어 로 구성된 문서 d를 generation하는 과정은 다음과 같다 3.. For i [,, ]: φi Dir(β) (i번째 토픽에 대한 Multinoulli parameter 를 생성한다.) 2. θ Dir(α) 3. For j [,, Nd ]: z j Cat(θ) wj Cat(φzj ) 표기를 간단히 하기 위해서, Φ = (φ,, φ )로 Φ를 -topic multinomial 파라미터로 사용하기로 한다. 주어진 문서 d에 대해, 단어열이 w로 주어지고, 이들 단어열에 대한 topic assignments가 z, topic mixture parameter가 θ, -topic multinomial 파라미터 Φ 에 대한, LDA의 joint distribution은 다음과 같다. 3 LDA에 대한 상세한 내용은 다음을 참고하시오. Blei, David M.; Ng, Andrew.; Jordan, Michael I. Latent Dirichlet Allocation. Journal of Machine Learning Research. 3 (4 5): pp. 993 022 4

P (w, z, θ, Φ α, β) = P (w, z, θ, φ α, β) = Dir(φi β)dir(θ α) i= Nd Cat(zj θ)cat(wj φzj ) j= M 개의 문서 전체 집합 C에 대해 단어열이 W = w wm, topic assignments 가 Z = z z M, topic mixture가 Θ = θ θ M 일때, C에 대한 LDA의 joint distribution는 다음과 같다. P (W, Z, Θ, Φ α, β) = P (w, z, θ M, φ α, β) = Dir(φi β) i= 3. M j= Ndj Dir(θ j α) Cat(zjk θ j )Cat(wjk φzjk ) k= Marginal distribution for Latent Dirichlet Allocation (LDA) LDA의 joint probability에서 θ, Φ를 elimination하여 다음 marginal probabilty P (w, z α, β)을 간결히 정리하시오. P (w, z α, β) = P (z α)p (w x, α, β) 여기서 P (z α)와 P (w x, α, β)는 다음과 같이 정의된다. Z P (z α) = P (θ α)p (z θ)dθ Z P (w z, β) = P (Φ β)p (w z, Φ)dΦ (0) 위를 이용하여, M 개의 문서 전체 집합 C에 대해 LDA의 marginal probabilty P (W, Z α, β)을 간결히 정리하시오. P (W, Z α, β) = P (Z α)p (W X, α, β) 3.2 Conditional probabliity on topic assignment for Latent Dirichlet Allocation (LDA) 위의 marginal probability P (w, z α, β)로부터 다음의 conditional probablity를 유도하시오. P (zj = i z j, w, α, β) = P (z j, zj = i, w, α, β) P (z j, w, α, β) () 여기서 z j 는 주어진 문서에서 j번째 단어를 제외한 다른 모든 단어들에 대한 topic assignment를 의미한다. 5

위의 하나의 문서에 대한 conditional probability식을 확장하여, M 개의 문서 전체 집합 C에 대한 다음 LDA의 conditional probabilty P (zjk = i W, Z jk α, β) 을 간결히 정리하시오. P (zjk = i Z jk, W, α, β) = P (Z jk, zjk = i, W, α, β) P (Z jk, W, α, β) (2) 여기서 Z jk 는 j번째 문서의 k번째 단어를 다른 모든 문서들과 단어들에 대한 topic assignment를 의미한다. 3.3 Collapsed Gibbs sampler for Latent Dirichlet Allocation (LDA) 위의 conditional probabliity 를 이용하여 모든 문서에 대해 topic assignment sampling을 수행한 후,θ j, φi 를 estimation하는 식을 유도하시오. 이를 이용하여 LDA에 대한 Gibbs sampler알고리즘을 유도하시오. 3.4 Implementation: Gibbs sampling for LDA (python code 제출) 유도된 Gibbs sampler를 python으로 작성하여 LDA 모델에 대한 학습을 수행하고, perplexity를 통해 LDA모델을 평가하시오. q(x) = Cat(x θ)가 학습된 Multinoulli 모델이고, 주어진 test 집합 T 은 총 M 개로 문서들로 구성되며, 이때 Ndi 를 문서 di 의 길이, wij 가 i번째 문서의 j번째 단어라고 할때, T 에 대한 model q의 perplexity는 다음과 같이 정의된다. Ndi M X X log q(wij ) perplexity(q) = exp M i= Ndi j= 6