CODEDRAGON ㆍDevelopment/AI
선형 회귀(Linear Regression)
· ≒ 최소제곱법(OLS; ordinary least squares)
· 종속 변수(또는 반응 변수)를 독립 변수(또는 설명 변수)에 의해 설명하는 모델을 다루는 회귀 분석(Regression Analysis)의 한 종류입니다.
· 선형 회귀는 예측과 훈련 세트에 있는 타깃 변수 사이의 평균제곱오차(mean squared error)를 최소화하는 파라미터를 찾습니다.
· 선형 회귀는 매개변수가 없는 것이 장점이지만, 모델의 복잡도를 제어할 수 없다는 단점이 있습니다.
· 선형 회귀는 종속 변수 y를 하나 또는 그 이상의 설명 변수 X로 설명하는 모델을 만드는 방법입니다. 선형 회귀가 찾은 결과는 y = aX + ε과 같은 형태가 됩니다.
· 회귀함수에서 소문자 x가 아니라 대문자 X를 사용했다는 점에 유의해야 합니다. 대문자 X는 벡터 또는 행렬을 의미합니다.
·
Linear regression predicts output by fitting
a linear equation
(y=ax+b) to observed data.
· 선형 회귀를 수행할 때 범주형 변수는 가변수(dummy variable)로 바뀝니다.
· 상호 작용(Interaction)이 있을 때 model.matrix를 살펴보면 이 사실을 확인할 수 있습니다.
· 평균으로 돌아간다는 뜻의 선형 회귀는 미래를 예측하는 중요한 공식을 만들 수 있습니다.
https://en.wikipedia.org/wiki/Linear_regression
'Development > AI' 카테고리의 다른 글
기계학습 방법(알고리즘 분류) (0) | 2019.11.18 |
---|---|
랜덤포레스트(Random forest) (0) | 2019.11.17 |
나이브베이즈 특징 (0) | 2019.11.16 |
원-핫 인코딩(one-hot encoding) (0) | 2019.11.15 |
맛있는 수박/커피 고르기 (0) | 2019.11.15 |