regularization을 공부하다가Ridge regression을 만나게 되고,l2 Norm regularization을 설명하면서기하학적인 뷰에서 regularization의 의미를 많이 설명하는데, 이 설명을 위해, unconstraint optimization problem 과 constraint optimization problem과 같다고 하고 설명을 한다. 그래서 대체 왜 같은지를 찾기 위해, 파고파고 파다 보니, KKT까지 왔다. 전체적인 흐름을 보면, 조건부 최적화에는 equality constraint와 inequality constraint 문제가 있다.먼저, equality constraint 문제는 lagrange multiplier를 사용하여 풀고,inequality const..