선형 회귀(Linear Regression)

CODEDRAGON Development/AI

반응형



 

 

선형 회귀(Linear Regression)

·         최소제곱법(OLS; ordinary least squares)

·         종속 변수(또는 반응 변수) 독립 변수(또는 설명 변수) 의해 설명하는 모델을 다루는 회귀 분석(Regression Analysis) 종류입니다.

 

·         선형 회귀는 예측과 훈련 세트에 있는 타깃 변수 사이의 평균제곱오차(mean squared error) 최소화하는 파라미터를 찾습니다.

·         선형 회귀는 매개변수가 없는 것이 장점이지만, 모델의 복잡도를 제어할 없다는 단점이 있습니다.

 

 

 

·         선형 회귀는 종속 변수 y 하나 또는 이상의 설명 변수 X 설명하는 모델을 만드는 방법입니다. 선형 회귀가 찾은 결과는 y = aX + ε 같은 형태가 됩니다.

·         회귀함수에서 소문자 x 아니라 대문자 X 사용했다는 점에 유의해야 합니다. 대문자 X 벡터 또는 행렬을 의미합니다.

·         Linear regression predicts output by fitting a linear equation
(y=ax+b) to observed data.

 

 

 

·         선형 회귀를 수행할 범주형 변수는 가변수(dummy variable) 바뀝니다.

·         상호 작용(Interaction) 있을 model.matrix 살펴보면 사실을 확인할 있습니다.

 

·         평균으로 돌아간다는 뜻의 선형 회귀는 미래를 예측하는 중요한 공식을 만들 있습니다.

 

 

http://bit.ly/2Q16UnQ

https://en.wikipedia.org/wiki/Linear_regression

 


'Development > AI' 카테고리의 다른 글

기계학습 방법(알고리즘 분류)  (0) 2019.11.18
랜덤포레스트(Random forest)  (0) 2019.11.17
나이브베이즈 특징  (0) 2019.11.16
원-핫 인코딩(one-hot encoding)  (0) 2019.11.15
맛있는 수박/커피 고르기  (0) 2019.11.15