일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 하둡
- SQL
- 빅데이터분석기사
- ETRI
- 하계인턴
- 소셜네트워크분석
- 에이블러
- SQLD
- r
- 한국전자통신연구원
- 딥러닝
- 기계학습
- 빅분기
- KT 에이블스쿨
- arima
- 시계열
- 시각화
- httr
- kaggle
- ggplot2
- 에이블스쿨
- 다변량분석
- KT AIVLE
- hadoop
- kt aivle school
- matplot
- cnn
- python
- dx
- ML
- 서평
- 지도학습
- 머신러닝
- 프로그래머스
- 가나다영
- 에트리 인턴
- Eda
- 웹크롤링
- Ai
- 한국전자통신연구원 인턴
Archives
- Today
- Total
목록가우시안분포 (1)
소품집
[ML] Gaussian Naive Bayes와 Bayesian Networks
2020/04/12 - [Data mining] - 나이브 베이즈 정리 앞의 포스팅과 이어집니다. Gaussian Naive Bayes (가우시안 나이브 베이즈) 앞의 예시와 같이 베이즈안 분류와 나이브 베이즈 분류의 공통된 리스크는 학습 데이터가 없다면, 빈도수를 기반한 계산법이었기 때문에 0을 반환한다는 점이었습니다. 그래서 평균과 표준편차를 이용해 정규화된 모델인 가우시안 나이브 베이즈 모델을 정의할 수 있습니다. GNB Classifier 학습 지금까지 P(x|class)를 단순히 빈도수에만 기반하여 학습 데이터가 없으면 0으로 나왔 던 리스크를 봐왔습니다. 그래서 이 리스크를 해결하기 위해 normalization 하여 가우시안 분포를 따른다고 가정하고, 문제를 풀어보려고 합니다. 우리는 가우시..
AI
2020. 4. 15. 17:11