일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 서평
- 에트리 인턴
- 지도학습
- 기계학습
- 웹크롤링
- ETRI
- 한국전자통신연구원 인턴
- 하둡
- SQLD
- KT AIVLE
- 머신러닝
- 빅데이터분석기사
- dx
- 딥러닝
- httr
- 하계인턴
- r
- 프로그래머스
- kaggle
- 시계열
- SQL
- arima
- 가나다영
- 소셜네트워크분석
- 다변량분석
- cnn
- KT 에이블스쿨
- ML
- 에이블러
- kt aivle school
- Eda
- ggplot2
- 에이블스쿨
- Ai
- 시각화
- hadoop
- 한국전자통신연구원
- matplot
- python
- 빅분기
Archives
- Today
- Total
목록Logistic Regression (1)
소품집
[ML] Linear classification, regression (선형회귀)
Linear Regression (선형회귀) 수식 미분으로 한 번에 구하는 방법 sum of squared error를 최소화 하기 위해 미분하여 얻은 최소화 된 식은 y = Xb (Xt)y = (Xt)Xb[(Xt)X]^(-1)(Xt)y = [(Xt)X]^(-1)(Xt)Xb [(Xt)X]^(-1)(Xt)y = b 즉, 주어진 데이터 (x,y)만 있으면 위 수식으로 한 번에 파라미터(beta값 ==기울기) 를 계산할 수 있음 계산이 끝나면, 그 파라메터로 테스트 데이터에 적용하여 예측값 ^y 생성이 가능함 Iterative(반복 수행) 방법으로 학습하는 방법 데이터 (각각 (x,y)값으로 취급) (2,5), (3,7), (4,9), (5,11) 선형 모델 가정하기: ax+by+c=0 (파라메터: a,b,c..
AI
2020. 4. 23. 23:27