Gradient-Descent(경사 하강법)

CODEDRAGON Development/AI

반응형



 

 

 

Gradient-Descent

·         경사 하강법

 

·         가중치(w) 바이어스(b) 작은 변화량에 대해서 출력의 변화량이 linear 하다는 점이 있습니다. 이런 선형적인 특성으로 인해, 가중치나 바이어스를 조금씩 바꾸면서 출력이 원하는 방향으로 움직이도록 만들 있습니다.

·         , 가중치(w) 바이어스(b)값들을 조절하여 cost function 최소 되도록 하는 것입니다.

·         최적값을 찾아갈 흔히 사용하는 방법입니다.

·         단층 퍼셉트론 모델에서 적절한 가중치를 찾기 위해 경사 하강법 (Gradient Descent) 사용합니다.

 

cost function 인자인 가중치(w) 바이어스(b) 조절하여  cost function 최소가 되도록 하는 방법입니다.

 


 

 

https://bit.ly/2qye0Ff

https://en.wikipedia.org/wiki/Gradient_descent

 

 

 

 


'Development > AI' 카테고리의 다른 글

1.Summary - 1.빅데이터 처리시스템 설계하기  (0) 2019.12.11
절대 오차(Absolute Error)  (0) 2019.12.10
선형회귀 이해  (0) 2019.12.10
앙상블 모형(ensemble)  (0) 2019.12.09
로지스틱 회귀 분석 그래프  (0) 2019.12.09