일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 기계학습
- 다변량분석
- 한국전자통신연구원 인턴
- hadoop
- 하계인턴
- 빅데이터분석기사
- 딥러닝
- 에이블스쿨
- KT AIVLE
- 소셜네트워크분석
- SQLD
- ML
- Eda
- 지도학습
- SQL
- ggplot2
- kt aivle school
- 빅분기
- kaggle
- arima
- 한국전자통신연구원
- dx
- 머신러닝
- cnn
- python
- 에트리 인턴
- 프로그래머스
- matplot
- 가나다영
- Ai
- 하둡
- ETRI
- 시계열
- 서평
- 웹크롤링
- 시각화
- httr
- 에이블러
- KT 에이블스쿨
- r
Archives
- Today
- Total
목록epoch (1)
소품집
[DL] 배치(batch)와 에포크(epoch), 반복(iteration)
이번 포스팅은 배치(batch)와 에포크(epoch), 반복(iteration)의 차이를 학습하겠습니다. 딥러닝을 하기 위해 모델을 학습할 때 부여하는 각각의 파라메터에 반복하는 횟수입니다. batch size batch size란 전체 트레이닝 데이터 셋을 여러 작은 그룹으로 나누었을 때 batch size는 하나의 소그룹에 속하는 데이터 수를 의미합니다. 만약 배치 사이즈가 너무 크면 한 번에 처리해야할 양이 그만큼 증가하기 때문에 학습 속도가 느려지고, 메모리 부족 문제를 겪을 수도 있습니다. 반대로 배치 사이즈가 너무 작으면 적은 샘플을 참조해서 가중치 업데이트가 빈번하게 일어나기 때문에, 비교적 불안정하게 훈련될 수도 있습니다. 따라서 배치 사이즈를 적절하게 부여하여 효율적인 학습을 해야합니다...
AI
2021. 9. 30. 12:14