관리 메뉴

기록

딥러닝(Deep Learning) 용어 - 배치 사이즈(Batch Size), 이터레이션(Iteration), 에포크(Epoch) 본문

딥러닝

딥러닝(Deep Learning) 용어 - 배치 사이즈(Batch Size), 이터레이션(Iteration), 에포크(Epoch)

김아이지 2021. 7. 21. 17:59

1. 배치 사이즈(Batch Size) - 학습을 위해 전체 데이터 셋에서 몇개의 데이터 묶음을 사용하여 학습할지 정한다.

  • 전체 데이터가 100개 있고 Batch Size가 10이면 한번 학습할때 10개의 데이터 묶음으로 학습을 하겠다는 의미

 

2. 이터레이션(Iteration) - 배치 사이즈의 수를 의미한다.

  • 1epoch을 위해 필요한 배치 사이즈의 수
  • 전체 데이터가 100개, Batch Size가 10일때 Iteration의 수는 10이다.
  • 10개의 한 묶음 배치사이즈가 10개를 구성해야 1epoch을 채울 수 있다.

 

3. 에포크(Epoch) - 전체 데이터셋을 한 번 학습했다는 의미이다.

  • 1epoch 이란? 데이터셋에 100개의 데이터가 있을때 100개의 데이터를 1번씩 학습에 사용한 경우 1epoch이라 한다.
  • 1epoch = Iteration * Batch Size 이다.
Comments