본문으로 바로가기

Margin distance

점이 DB 위에 있으면 wx+b =0 이다.

특정 point x 에서 DB로 수선의 발을 내려 만나는 점을 xp 라고 하자. xp는 DB 위에 있는점이 된다.

즉 x는 xp에서 w 벡터 방향으로 r만큼 진행한 거리가 될수 있다.

 

Margin distance 는 Optimize 해주는 방향으로 가면 구할수 있다.

Margin distance 는 Positive / Negative 두가지 방향이 있다.

 

위의 식에서 j는 learning instance 이다. (Dataset의 각각의 instance , training set 이라고 할수 있다.)

위에서 a는 constane term으로 생각해서 1로 두어도 무관하다.

그리고 max 값을 구하는 문제를 역수로 두어 min 값을 구하는 것으로 변형해도 된다.

 

support machine 을 Learning 하는것은 parmeter를 inference 하는 과정이라 할수 있다.

 

w의 개별 element 가 w1 , w2 로 나누어지고 ||w|| 를 구하기 위해서는 w1^2+w^2 의 square term 이 들어가기  때문에 quadratic optimization 이라 할수 있다.

 

이것은 quadratic programing 을 통해 최적화 할수 있다.