우리는 이미 Decision tree , rule based learning 등의 Classifier 를 배웠다.
이번에는 Optiaml Classifier에 대해 알아보겠다.
f(X) = Y hat 이다. 위에 정의된 Bayes classifier 는 y hat 과 Y가 같지 않을 확률을 최소화(argmin)하는 f를 찾는것이다.
이것을 f star라 부른다.
위의 그래프는 2개의 class를 가지고 있다. ( y가 녹색 or 빨간색 )
X1이 주어졌을때 녹색y가 나오고 X2가 주어졌을때 빨간색y가 나오도록 확률분포함수를 조정해주고 f star를 만들어주자.
이전에 배운 MLE , MAP에 대해 다시 알아보자.
MLE / MAP 를 어떻게 Naïve Bayes Classifier 에 적용시킬수 있는지 배우는것이 이번 주 차의 학습 목표이다.
위의 그래프의 빨간색 / 녹색선이 만나는 점의 확률은 누가 높은지 알수 없다.
위의 점선의 Classifier 와 실선의 Classifier 중 어느것의 성능이 더 좋을까?
위의 그래프에 Xn이라는 값이 있다고 생각해보자. 그리고 각각 Classifier 에 해당하는 확률이 있을텐데 , 실선이 높은 확률 차이로 구분을 더 잘할수 있다. (녹색 / 빨간색의 구별이 쉽다는 말이다.)
데이터로 주어진 y와 우리가 판별에서 나오는 y가 최대한 같도록 확률을 만들도록 function approximation 한다.
여러 Variable 간에 interaction 이 있고 , x의 변수가 많아진다하면 이것을 combination 해야한다.
여기서 각각의 variable 간의 interaction 에 대해 무시하는것이 Naïve Bayes Classifier 이다.
'머신러닝 > 문일철 교수님 강의 정리 (인공지능및기계학습개론)' 카테고리의 다른 글
Week 3.3. Naive Bayes Classifier (0) | 2019.06.24 |
---|---|
Week 3.2. Conditional Independence (0) | 2019.06.19 |
Week 2.5. How to create a decision tree given a training dataset (0) | 2019.06.16 |
Week 2.4. Entropy and Information Gain (0) | 2019.06.15 |
Week 2.3. Introduction to Decision Tree (0) | 2019.06.15 |