로그인 바로가기 하위 메뉴 바로가기 본문 바로가기

인공지능 및 기계학습 심화

임시 이미지 KAIST 산업및시스템공학과 문일철 교수
http://kooc.kaist.ac.kr/aiml-adv/forum/7324
좋아요 696 수강생 3342

안녕하세요 항상 수고가 많으십니다. Hyper-parameter Learning 관련 질문이 있습니다. Gaussian process에서 hyper parameter를 learning을 할 때 저는 그냥 <hyper parameter learning (1)편>마지막 슬라이드에 나온 logp(t|Theta) 의 gradient를 이용해서 =0의 closed form이 없으니까 gradient ascent 방식으로 learning할 것이라고 생각했는데, (2)편 강좌를 보면 먼저 C 행렬을 구한 후 이것을 역으로 observation된 data포인트를 예측한 뒤(p(tn+1|tn)) predicton값과 실제 observation 과의 error term을 줄이는 식으로 learning이 진행되는 것 같습니다. 제가 말했던 첫번째 방식과 두번째 방식은 확실히 다른 방법 같은데 두번째 방식을 이용하는 이유가 있나요? 만약 같은 얘기를 하는 것이라면 어떻게 같을 수 있나요?(같음을 유도할 수 있나요?)

미리 감사드립니다.