반응형

Algorithm 82

Adaboost

ㅇ Adaboost 예제 동영상ㅇ Learning Classification Functions- 대부분의 학습 알고리즘은 분류 함수(Classification function)을 학습 시키는데 사용이 된다. 하지만 본 논문에서 사용하는 Adaboost는 주어진 특징 약 160000개 중에서 좋은 특징을 선택하는 과정이 학습 과정인 것이다. - Freund 와 Schapire는 강분류기의 에러는 학습 과정의 반복 횟수가 증가함에 따라 Exponentially하게 0에 접근한다는 것을 증명하였다.- 또한 일반화 성능에 대한 더 많은 결과들이 증명되었다.(Schapire et al., 1997)- 전통적인 Adaboost 과정은 greedy Feature 선택 과정으로 쉽게 이해 가능하다.ㅇ Consider ..

Algorithm/PPT 2012.11.14

[IEEE2011]Linear SVM Classification Using Boosting HoG Features For Vehicle Detection in Low-Altitude Airborne Video

요약 HOG를 이용하여 차량을 검출하는 방법 중요 포인트 학습 일반적으로 HOG를 추출하여 모든 차원의 엘리먼트들을 특징으로 사용하지만 본 논문에서는 HOG 특징들 중에 좋은 특징만 추출하여 사용하고자 하는 아이디어 그렇다면 좋은 특징을 어떻게 추출하는가? Adaboost를 이용하여 좋은 특징을 추출한다. 그렇다면 특징을 추출한뒤 인식은 어떻게 하는가? Adaboost의 출력 값을 이용하여 다시 새로운 특징 벡터를 생성 후 SVM으로 인식한다. 테크닉 하나의 HOG를 사용하는 것이 아니라 3 종류의 HOG를 사용하는데, 이는 좀 더 강건하게 차량 검출을 위해서 사용한다. Cascade 개념이 들어 간듯 하다. 느낀점 개인적으로 정말 좋은 아이디어 인듯하다. 유사한 생각으로 혹시나해서 이미 논문이 나왔는지..

Algorithm/Paper 2012.11.06

boosting 알고리즘의 개선을 위한 연구들

2. boosting 알고리즘의 개선을 위한 연구들 - Real Adaboost [1] B. Wu, H. Ai, C. Huang, and S. Lao, "Fast Rotation Invariant Multi-View Face Detection Based on Real AdaBoost," Proc. IEEE Conf. Automatic Face and Gesture Recognition, pp.79-84, 2004. [2] R. E. Schapire and Y. Singer, "Improved Boosting Algorithms Using Confidence-Rated Predictions," Machine Learning, Vol.37, pp.297-336, 1999. - FloatBoost [3] S...

Algorithm 2012.10.22

Hough Transform 허프 변환

허프 변환(Hough Transform)의 기본 개념은 정말 어쩌면 무식한 방법이 아닐까 생각한다. 어떤 점이 주어졌다면, 그 점을 기준으로 그점을 지나는 모든 직선의 방정식의 파라미터를 저장해놓고, 여러개의 점들에 대해 반복하여 파라미터의 빈도수를 누적함으로써, 같은 직선에 속하는 점들이 몇개나 있는지 검사하는 방법이다. 그리하여 많은 점들이 같은 직선상에 존재한다면, 파라미터를 이용하여 직선으로 표현하여 직선을 검출 하는 방법이다. 위 그림은 허프변환의 수식에 대한 풀이를 나타낸다. 직선 A는 r이라 표현된 직선 A의 법선 벡터와 만나는 점 x,y라 놓으면, 직선 A의 방정식은 수식 1과 같이 표현할 수 있다. 여기서 수식 1을 극좌표를 이용하여 표현하면 기울기와 y 절편을 극좌표를 이용하여 표현해야..

Algorithm 2012.07.18
반응형