로그인 바로가기 하위 메뉴 바로가기 본문 바로가기

인공지능 및 기계학습 개론 II

임시 이미지 KAIST 산업및시스템공학과 문일철 교수
http://kooc.kaist.ac.kr/machinelearning2__17/forum/1343
좋아요 1115 수강생 5471

안녕하세요. 궁금한 부분이 생겨 이렇게 질문드립니다.

Gibbs Sampling을 Bayesian Network을 예시로 하여 설명하시는 부분 중에

우리가 알고자 하는 확률 값 P(E, JC, B | A=F, MC=T)를 구하려고 할 때

directly sampling이 어렵기 때문에 conditional distribution을 고려하여

Markov Blanket을 사용하여

P(E | A, B), P(JC | A),  P(B | A, E) 3가지 형태로 simplify를 했는데

P(E, JC, B | A=F, MC=T)에서 왜 directly sampling이 어려운지 궁금합니다.

제 생각에는...evidence part(A=F, MC=T)는 그냥 받아들이지만 E, JC, B part에는

2^3=8가지의 경우가 도출되어 directly sampling을 하기에는 다소 계산량이 많아져서 인지 궁금합니다.

감사합니다.

튜터님, 긴 추석 연휴 즐겁게 보내시길 바랍니다.