로그인 바로가기 하위 메뉴 바로가기 본문 바로가기

인공지능 및 기계학습 심화

임시 이미지 KAIST 산업및시스템공학과 문일철 교수
http://kooc.kaist.ac.kr/aiml-adv/forum/6395
좋아요 696 수강생 3342

안녕하세요 항상 수고가 많으십니다!

이번 강의에 linear regression에서 weight 부분을 gaussian distribution을 따르는 random variable로 보고 그에 따라서 y의 mean과 covariance matrix를 유도했는데요, 제가 예전에 ridge regression이라느 것을 공부했을 때도 비슷한 가정을 본 것 같습니다. p(w) =  j_Product(  Product( N(w_j | 0, t^2) ) 그리고 이 부분을 배우면서 MAP estimation을 통해서 최적의 w값을 closed form으로 구할 수 있었던 것으로 기억합니다. 교수님께서 이번강의에서 뭔가 w값을 discriminant하게 보는 게 아니라고 말씀하신 것 같아서 헷갈리는 상황입니다.(closed form이 아니라?)

혹시 제가 전혀 다른 두 개념을 혼동하고 있는 것인지, 아니면 ridge regression과 이번 강의가 같은 가정을 서로다른 관점에서 보고 있는 것인지 궁금합니다.