Cost Function


그럼, hypothesis function에서 $\theta_{0}$ 과 $\theta_{1}$은 어떻게 고를까요?

$\theta_{0}$ 과 $\theta_{1}$을 어떻게 선택하냐에 따라서 hypothesis function은 달라질 것입니다.

linear regression에서 우리가 하려는 것은 최소화 문제를 푸는 것입니다.

우리는 적절한 $\theta_{0}$ 과 $\theta_{1}$ 선택해서 h(x) 와 y의 차이를 작게 만들것입니다.

$$ min_{\theta_{0}, \theta_{1}} {1 \over \ 2m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^2 $$

i : i 번째 샘플

m : 전체 트레인 샘플 수

h(x) : 예측한 값 → $h_{\theta}(x^{(i)}) = \theta_{0} + \theta_{1}x^{(i)}$

y : 실제 값

식에 1/2을 곱해주는 것은 계산 쉽게하기위해서 곱해줍니다.

$$ J(\theta_{0},\theta_{1}) = {1 \over \ 2m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^2 \\min_{\theta_{0}, \theta_{1}} J(\theta_{0},\theta_{1}) $$

식을 명확하게 해주면 위와 같습니다. 여기서 $J(\theta_{0}, \theta_{1})$ 을 Cost function 이라고 합니다. 이 Cost function 을 Squared error function 이라고도 합니다.

hypothesis function을 단순화하여, 다시 살펴보겠습니다.

$\theta_{0}$을 0 이라고 하면, hypothesis function은 다음과 같이 단순화됩니다.