로그인 바로가기 하위 메뉴 바로가기 본문 바로가기

인공지능 및 기계학습 개론 II

임시 이미지 KAIST 산업및시스템공학과 문일철 교수
http://kooc.kaist.ac.kr/machinelearning2__17/forum/125626
좋아요 1110 수강생 5461

안녕하세요. 조교님

아래와 같이 이해와 안되는 점이 있어 질문드립니다.

답변해주시면 감사하겠습니다.


EM 알고리즘의 expectation step에서

 q^t(z)=P(Z|X, \theta^t)  qt(z)=P(ZX,θt) 로 업데이트를 하는데요.

q(z)는 x에 의존하지 않으니, 모든 포인트(GMM 이라면 x 하나가 하나의 포인트)에 적용되는 확률 분포라고 봤습니다.

즉, x_n  xn 마다 q(z)가 존재하는 것이 아니라 전체 데이터 셋에 대해 하나의 q(z)가 도출되는 것으로 봤습니다.


ch8 세번째 강의자료 pdf의 11페이지를 보면

GMM에 EM을 적용하면서, expectation step에서

 \gamma(z_{nk} )  γ(znk) 를 업데이트 합니다.  \gamma(z_{nk} )  γ(znk) 는 n에 의존하므로, x_n  xn마다 다른 값을 갖습니다. 

q(z)는 x에 의존하지 않아야 하는데,  \gamma(z_{nk} )  γ(znk) 는 x에 의존합니다.


1. q(z)가 x_n  xn 마다 존재하지 않는 것이 맞는지요? ( x_n  xn 에 의존하지 않는 것이 맞는지요?)

2. GMM에서 q(z)의 식은 무엇인지요?  \gamma(z_{nk} )  γ(znk) 와의 관계는 어떻게 되는지요?


감사합니다.