epoch, mini batch, epoch 이해, batch size에 따른 성능
CODEDRAGON ㆍDevelopment/Big Data, R, ...
반응형
epoch
· ≒ 에포크
· 모든 데이터셋을 한번 학습하는 것
mini batch(미니배치)
· 데이터를 batch size만큼 쪼개어 학습하는 것을 말합니다.
· 샘플을 한 번에 몇 개씩 처리할지를 지정합니다.
epoch 이해
전체 10000개 데이터를 300개씩 나누어 총 33번 학습시 1회 학습이 되어 1epoch가 됩니다.
구분 | 설명 |
전체 데이터 | 10000개 |
mini batch size | 300개 |
1 epoch | 10000 / 300 = 33.3333 33번만큼의 iteration |
batch size에 따른 성능
· batch size가 너무 크면 ↑학습 속도가 느려지고↓, 너무 작으면↓ 각 실행 값의 편차가 생겨서 전체 결괏값이 불안정해질 수 있습니다.
· 분석 컴퓨터 메모리가 감당할 만큼의 batch size를 찾아 설정해 주는 것이 좋습니다.
'Development > Big Data, R, ...' 카테고리의 다른 글
순환 신경망(RNN; Recurrent Neural Network) (0) | 2022.05.25 |
---|---|
Play with neural networks (0) | 2022.05.18 |
맥스 풀링(max pooling) (0) | 2022.05.04 |
Gapminder World - Wealth & Health of Nations (0) | 2022.04.27 |
SAS(Statistical Analysis System) (0) | 2022.04.14 |