일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- cnn
- 지도학습
- 한국전자통신연구원
- ML
- 시계열
- python
- 빅데이터분석기사
- 빅분기
- 딥러닝
- SQLD
- 웹크롤링
- ggplot2
- 소셜네트워크분석
- matplot
- 하계인턴
- 프로그래머스
- 시각화
- KT AIVLE
- 기계학습
- SQL
- 한국전자통신연구원 인턴
- kaggle
- 에트리 인턴
- ETRI
- httr
- Ai
- r
- KT 에이블스쿨
- 에이블스쿨
- Eda
- 가나다영
- 서평
- hadoop
- arima
- kt aivle school
- 머신러닝
- 다변량분석
- dx
- 하둡
- 에이블러
Archives
- Today
- Total
목록Gaussian (1)
소품집
[ML] Gaussian Naive Bayes와 Bayesian Networks
2020/04/12 - [Data mining] - 나이브 베이즈 정리 앞의 포스팅과 이어집니다. Gaussian Naive Bayes (가우시안 나이브 베이즈) 앞의 예시와 같이 베이즈안 분류와 나이브 베이즈 분류의 공통된 리스크는 학습 데이터가 없다면, 빈도수를 기반한 계산법이었기 때문에 0을 반환한다는 점이었습니다. 그래서 평균과 표준편차를 이용해 정규화된 모델인 가우시안 나이브 베이즈 모델을 정의할 수 있습니다. GNB Classifier 학습 지금까지 P(x|class)를 단순히 빈도수에만 기반하여 학습 데이터가 없으면 0으로 나왔 던 리스크를 봐왔습니다. 그래서 이 리스크를 해결하기 위해 normalization 하여 가우시안 분포를 따른다고 가정하고, 문제를 풀어보려고 합니다. 우리는 가우시..
AI
2020. 4. 15. 17:11