일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ggplot2
- 웹크롤링
- kt aivle school
- httr
- 프로그래머스
- SQL
- 시계열
- KT AIVLE
- 빅데이터분석기사
- 가나다영
- 빅분기
- matplot
- 한국전자통신연구원
- 에트리 인턴
- ETRI
- 딥러닝
- 에이블러
- 시각화
- 지도학습
- Eda
- kaggle
- hadoop
- dx
- r
- 하둡
- 다변량분석
- arima
- 서평
- ML
- Ai
- 하계인턴
- 머신러닝
- 기계학습
- cnn
- 소셜네트워크분석
- SQLD
- python
- 한국전자통신연구원 인턴
- KT 에이블스쿨
- 에이블스쿨
Archives
- Today
- Total
목록배깅과 부스팅의 차이 (1)
소품집
[ML/DL] Ensembles model - 앙상블 모델 (Adaboost, Random forest ..)
10장 (Ensembles) Summary 앙상블은 조화, 통합을 의미합니다. 어떤 데이터의 값을 예측한다고 할 때, 보통은 하나의 모델을 사용하는데요. 이와 달리 앙상블 모델은 여러개의 모델을 학습시켜 그 모델의 예측결과를 통합하여 예측값을 높이는데에 이용됩니다. 앙상블 학습은 여러 개의 DT(Decision Tree)를 결합하여 하나의 모델을 사용했을 때 보다 더 높은 성능을 내게 학습합니다. 앙상블의 기법 중 많이 사용되는 학습방법은 Bagging Boosting ECOC (Error-correcting output coding) Stacking 등이 있습니다. 부스팅 (Boosting) 부스팅은 가중치를 활용하여 약 분류기 → 강 분류기로 학습하는 과정이 진행됩니다. 처음 모델이 예측을 하면 그 ..
AI
2020. 6. 23. 00:19