Intro
- 딥러닝은 자그마한 통계의 결과들이 무수히 얽히고설혀 이루어지는 복잡한 연산의 결정체
- 딥러닝의 가장 말단에서 이루어지는 가장 기본적인 두 가지 계산 원리
- 선형 회귀(linear regression)
- 로지스틱 회귀
- 머신러닝은 제대로 된 선을 긋는 작업부터 시작한다
1. 선형 회귀의 정의
- 독립적으로 변할 수 있는 값 x를
독립 변수
- 독립 변수에 따라 종속적으로 변하는 y
종속 변수
- 선형 회귀
- 독립 변수 x 를 사용해 종속 변수 y의 움직임을 예측하고 설명하는 작업
단순 선형 회귀(simple linear regression)
- 하나의 x 값만으로도 y값을 설명할 수 있을 때
다중 선형 회귀(multiple linear regression)
2. 가장 훌륭한 예측선이란?
- 왼쪽이 아래로 향하고 오른쪽이 위를 향하는 일종의 '선형(직선으로 표시될 만한 형태)'
- 선형 회귀를 공부하는 과정은 이 점들의 특징을 가장 잘 나타내는 선을 그리는 과정
$$
y=ax+b
$$