기록
딥러닝(Deep Learning) 용어 - 배치 사이즈(Batch Size), 이터레이션(Iteration), 에포크(Epoch) 본문
딥러닝
딥러닝(Deep Learning) 용어 - 배치 사이즈(Batch Size), 이터레이션(Iteration), 에포크(Epoch)
김아이지 2021. 7. 21. 17:591. 배치 사이즈(Batch Size) - 학습을 위해 전체 데이터 셋에서 몇개의 데이터 묶음을 사용하여 학습할지 정한다.
- 전체 데이터가 100개 있고 Batch Size가 10이면 한번 학습할때 10개의 데이터 묶음으로 학습을 하겠다는 의미
2. 이터레이션(Iteration) - 배치 사이즈의 수를 의미한다.
- 1epoch을 위해 필요한 배치 사이즈의 수
- 전체 데이터가 100개, Batch Size가 10일때 Iteration의 수는 10이다.
- 10개의 한 묶음 배치사이즈가 10개를 구성해야 1epoch을 채울 수 있다.
3. 에포크(Epoch) - 전체 데이터셋을 한 번 학습했다는 의미이다.
- 1epoch 이란? 데이터셋에 100개의 데이터가 있을때 100개의 데이터를 1번씩 학습에 사용한 경우 1epoch이라 한다.
- 1epoch = Iteration * Batch Size 이다.
'딥러닝' 카테고리의 다른 글
RNN 과 LSTM 정리 (0) | 2023.06.22 |
---|---|
역전파 - BackPropagation (0) | 2021.11.22 |
딥러닝(deep learning) 용어 - 파라미터와 하이퍼파라미터 (0) | 2021.07.21 |
데이터 라벨링 (0) | 2021.06.19 |
xml 파일 데이터를 활용하여 Image에 box 그리기 (0) | 2021.06.16 |
Comments