• 선형회귀 = 직선의 방정식

    • $y = Wx + b$ ( W : weight, b : bias)
  • 가설 (Hypothesis)

    • W, b에 임의의 값이 들어가 H(x)의 값을 정한다.
    • H(x)는 기계가 생각한 답
    • 당연히 처음부터 답이 될 순 없다.

    Untitled

  • Cost Function (= Loss Function)

    • 기계가 H(x)라는 가설을 세웠으니, 정답과 얼마나 같은지 비교

    • Mean Squared Error (MSE)

      • MSE가 작을수록 모델의 정확도가 좋은 것이다.
      • 절댓값을 쓰지 않고 제곱으로 계산하는 이유?
        1. 틀렸을 때, 패널티 값을 좀 더 크게 하기 위해
        2. 컴퓨터 내부적으로 절댓값보다 제곱의 속도가 빠름

      Untitled

  • Cost 값을 줄이는 방법

    • 학습은 Cost(=Loss) 를 줄이는 것이 목표!
    • 가장 많이 사용하는 방법이 Gradient Descent (경사하강법)
  • Gradient Descent Method

    • Global optimum (기울기가 0이 되는 지점)을 찾는 것이 목표임
    • learning rate이 너무 크다면,
      • 발산할 것
    • learning rate이 너무 작으면,
      • epoch을 무진장 키워야 할 수도 있음.

    Untitled