A naive Bayes classifier is a simple probabilistic classifier based on applying Bayes' theorem with strong (naive) independence assumptions. A more descriptive term for the underlying probability model would be "independent feature model".
그럼 이제 각각에 대해서 알아보자
먼저 나이브 베이스 분류기는 베이스 이론에 기반한 간결한 확률 모델이라 한다.
그럼 베이스 이론이 먼지 알아야 할 것이다.
위의 수식은 모두 알 것이다. P(A|B)라는 것은 B가 주어졌을때 A의 확률이란 뜻이다.
즉 전체 집합 S가 있고, 그 안에 A와 B집합이 있다고 가정하면 전체 집합 B중에서
A일 확률을 의미하기 때문에 위의 수식처럼 표현하는 것이다.
사실 정확히 따지면 P(A)는 A일 확률 이므로 다음과 같다. 하지만 보통 P(S)를 생략하는 것이다.
그럼 베이스 이론은 수식(1)과 수식(2)를 연립하여 정리하면 나온다. 본인도 베이스 이론 수식을 절대 외우지 않는다.. 사실 외워야 편하지만 원래 외우는 것을 별로 좋아하지 않아, 어떻게 나온지만 알고 저 (1),(2) 수식만 알고 있다면 충분히 유도할 수 있다. 유도 과정은 다음과 같다.
일단 베이스 정리에 대해 알았으니, 이제 이를 이용한 나이브 베이시안 분류기에 대해 알아보자.
본 게시물이 도움이 되었다면, 꾸~욱~ 눌러주세요.
포스팅 하는데 많은 힘이 됩니다~~~
'Study > 머신비전' 카테고리의 다른 글
최적화 Convex Optimization – Boyd and Vandenberghe (0) | 2015.05.15 |
---|