일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 에트리 인턴
- 빅데이터분석기사
- 기계학습
- SQL
- 머신러닝
- r
- KT AIVLE
- 하둡
- httr
- arima
- dx
- kt aivle school
- 웹크롤링
- cnn
- ETRI
- ML
- 다변량분석
- kaggle
- hadoop
- 프로그래머스
- 시계열
- 서평
- Ai
- 한국전자통신연구원
- 딥러닝
- 에이블러
- ggplot2
- Eda
- 빅분기
- 소셜네트워크분석
- 한국전자통신연구원 인턴
- python
- 지도학습
- 하계인턴
- 가나다영
- SQLD
- matplot
- 시각화
- 에이블스쿨
- KT 에이블스쿨
Archives
- Today
- Total
목록bayesian networks (1)
소품집
[ML] Gaussian Naive Bayes와 Bayesian Networks
2020/04/12 - [Data mining] - 나이브 베이즈 정리 앞의 포스팅과 이어집니다. Gaussian Naive Bayes (가우시안 나이브 베이즈) 앞의 예시와 같이 베이즈안 분류와 나이브 베이즈 분류의 공통된 리스크는 학습 데이터가 없다면, 빈도수를 기반한 계산법이었기 때문에 0을 반환한다는 점이었습니다. 그래서 평균과 표준편차를 이용해 정규화된 모델인 가우시안 나이브 베이즈 모델을 정의할 수 있습니다. GNB Classifier 학습 지금까지 P(x|class)를 단순히 빈도수에만 기반하여 학습 데이터가 없으면 0으로 나왔 던 리스크를 봐왔습니다. 그래서 이 리스크를 해결하기 위해 normalization 하여 가우시안 분포를 따른다고 가정하고, 문제를 풀어보려고 합니다. 우리는 가우시..
AI
2020. 4. 15. 17:11