일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 에이블러
- 시계열
- python
- SQLD
- 딥러닝
- 프로그래머스
- 에이블스쿨
- 한국전자통신연구원
- 시각화
- 하둡
- 머신러닝
- 빅분기
- matplot
- KT 에이블스쿨
- cnn
- 서평
- ETRI
- 지도학습
- ggplot2
- 에트리 인턴
- Eda
- 하계인턴
- 한국전자통신연구원 인턴
- kt aivle school
- 소셜네트워크분석
- hadoop
- ML
- SQL
- kaggle
- Ai
- dx
- 기계학습
- KT AIVLE
- 빅데이터분석기사
- r
- httr
- 가나다영
- 웹크롤링
- 다변량분석
- arima
Archives
- Today
- Total
소품집
GP 모델링: Gaussian Process Definition 본문
728x90
Gaussian Process Regression (GPR)
- Gaussian Process (GP)는 무엇인가?
- 전통적으로 Classification이나 Regression과 같은 Supervised Learning은 Parametric 모델들을 통해 풀어왔음
- 여기서 말하는 Parametric Model 들은 모델 학습동안 Training data의 정보를 model의 parameter에 absorbs(흡수) 시키는 방법들을 의미함
- 이러한 모델들은 설명 가능하다는 장점을 가지나 복잡한 데이터 셋에서는 제대로 작동하기 힘듦
- 이러한 상황에서 SVM이나 GP와 같은 Kernel based model의 등장은 보다 유연한 지평을 열게 됨
- Gaussian Process Definition
- 임의의 집합 S가 있을 때, S에 대한 GP는 Random variable들의 set임
- s.t 각 random variable은 joint Gaussian Distribution간단하게, GP는 Random variable들의 집함
- 임의의 집합 S가 있을 때, S에 대한 GP는 Random variable들의 set임
3. Gaussian Process 예시
- 우리는 위 수식 Gaussian Distribution f~N(m, 시그마)를 통해 Random Vector 생성이 가능함
- GP를 사용하게 되면 M에 분포를 가지고, 이 분포에 대해서 어느 점에 찍힐 수 있다, 보다 유연하게 우리가 데이터를 생성할 수 있다! 기존의 머신러닝 파라메트릭 방법과는 다르다라고 볼 수 있음..평균 m에 covariance matrix 합을 통해 계산 된 noise를 더함
Bayesian Inference
- GP를 통해서 데이터를 어떻게 예측할 것인가?
- 그래서 Bayesian Inference를 사용하게 됨
- Bayes’ Theorem
- Posterior (사후확률): P(X|Y)
- Prior (사전확률): P(X)
- evidence에 따라 확률이 달라질 수 있음..
- Bayes’ Theorem
- Posterior (사후확률): P(X|Y)
- Prior (사전확률): P(X)
- evidence에 따라 확률이 달라질 수 있음..
- 앞서 구한 GP를 Prior로 사용해서 Bayesian Inference 진행
- Prior가 있기 때문에, Likelihood 즉 data가 있으면 Posterior를 구할 수 있음 → Prediction 가능
- 순서대로 m(x) 평균, K(x, x’) 공분산
- 마지막 Kd(x, x’)은
기존에 있던 k(x, x’) 텀에 뒤에 수식을 빼고 생각했을 때,
kd(x, x’) = k(x, x’)로 알 수 있으니까… 양수 term이다!
기존에는 쉐이딩 영역이 넓으나, prior를 사용해서 posterior를 구한 다음에 그래프를 그려보면, 동일한 95% confidence임에도 불구하고 uncertaion 쉐이딩 영역이 작아짐을 확인할 수 있음.
이러한 이점을 통해서 예측에서 Uncertain을 줄일 수 있다!
2. Bayesian Inference 문제점
- 하지만, 우리가 다룰 real data는 prior를 모르는 상황이 일반적임
- 이를 해소하기 위해 데이터를 최적화 하기 위한 식을 세운 후 파라미터 최적화 진행 (conjugate gradient 방식 이용)
- Covariance를 구하는 계산 복잡도가 O(n^3)으로 상당히 큰 편임
ref.
728x90
'AI > 연구한다영' 카테고리의 다른 글
Lower Upper Bound Estimation (LUBE) 결정론적 예측 구간 (0) | 2024.04.18 |
---|---|
4월 목표! (0) | 2024.03.27 |
새해! (0) | 2024.01.02 |
[KDBC 2023] 한국정보과학회 데이터베이스소사이어티 컨퍼런스 우수논문상 수상 (0) | 2023.11.07 |
23-1 석사 첫 학기 (0) | 2023.07.11 |
Comments