일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 기계학습
- 하둡
- 소셜네트워크분석
- SQL
- 빅데이터분석기사
- ETRI
- 딥러닝
- 지도학습
- ggplot2
- hadoop
- Eda
- 에이블러
- 시각화
- arima
- 웹크롤링
- 하계인턴
- 프로그래머스
- KT AIVLE
- 빅분기
- SQLD
- 가나다영
- matplot
- ML
- 에이블스쿨
- cnn
- r
- 머신러닝
- kaggle
- httr
- 에트리 인턴
- 한국전자통신연구원
- 서평
- KT 에이블스쿨
- 한국전자통신연구원 인턴
- 시계열
- python
- Ai
- dx
- 다변량분석
- kt aivle school
- Today
- Total
목록기계학습 (9)
소품집
0. Data domain https://github.com/mmalekzadeh/motion-sense GitHub - mmalekzadeh/motion-sense: MotionSense Dataset for Human Activity and Attribute Recognition ( time-series data generated MotionSense Dataset for Human Activity and Attribute Recognition ( time-series data generated by smartphone's sensors: accelerometer and gyroscope) (PMC Journal) (IoTDI'19) - GitHub - mmale... github.com A_Devi..
SVM: Motivation (+)와 (-)의 class를 구분짓기 위해서는 여러 방법을 생각할 수 있습니다. 그러면 어떻게 나눠야 잘 나눴다고 할 수 있을까요? 아마 제일 잘 나눴다고 볼 수 있는 형태는 이런 모습일 것 입니다. 나누는 목적: 데이터 클래스 (class, label) 분류 그렇다면, '잘 나눈다'는 것 == 클래스 사이의 딱 중간이 아닐까? 딱 중간 이라면, 서로 다른 클래스 간에 **'거리가 최대'**가 되게 하는 것 정리해보면, SVM에서 찾고자 하는 decision boundary 는 다른 클래스에 속한 데이터들 간에 '거리가 최대'가 되게 하는 boundary라 볼 수 있게 되고,이 때 boundary를 **'Max margin'**이라 합니다. 이 boundary는 두 개의 경..
2020/05/11 - [Data mining] - Artificial Neural Network (인공신경망) Artificial Neural Network (인공신경망) Neural Network Motivated by studies of the brain (사람의 뇌를 학습한 모습!) A network of "artificial neurons" that learns a function Doesn't have clear decision rules like decision trees, but highl.. sodayeong.tistory.com 이전 내용과 이어집니다. ANN 학습 : Back-propagation (역전파 알고리즘) Back-propagation 전체에 대한 편미분을 곧바로 구하지 않..
Neural Network Motivated by studies of the brain (사람의 뇌를 학습한 모습!) A network of "artificial neurons" that learns a function Doesn't have clear decision rules like decision trees, but highly successful in many different application (e.g. face detection) → D.T와 같은 완전한 결정(classification)은 하지 못하지만, 여러 응용 분야에서 높은 성공률을 보여줌 Artificial Neural Networks ANN의 특징 한 쪽 방향으로 흐름 (feed forward) 보통 1개 이상의 hidden l..
Neuron Motivated by studies of the Brain Neuron 뇌 세포 Dendrite(가지돌기)에 여러 값들(입력)이 도착하면 나의 신호로 통합하고, 임의의 임계값을 넘게 되면 이 값이 Axon을 통해 전달된다는 개념으로 표현한 것! MCP 뉴런이라고도 불린다. Net input function (순입력함수) 입력 값 x이 n+1개의 feature들이 n+1개의 weight와 곱한 값 즉, summation(=feature*weight) 되어 하나의 신호로 통합됨 → 왜 n+1개인가? 마지막 1개는 bias(prior)가 된다! Activation function (활성함수) 순입력함수의 결과값을 임의의 임계값(threshold)과 비교하여 -1 or 1의 결과값 생성 Perce..
Machine Learning? 원초적인 이야기부터 하자면, 아이는 어떻게 말할 수 있게 된 걸까요? 주변에서 '반복'하여 들려주는 다양한 말을 '학습'하게 되는데요. 즉, 학습과 경험을 통해 쌓은 데이터로 말이죠. 기계학습은 학습법에 따라 네 가지로 분류할 수 있습니다. Different kinds of learning Supervised Learning (지도학습) 모델 학습을 위해 '정답'이 주어진 데이터가 필요 정답이 주어진 데이터를 '분류'하는 작업에 이용 → Classification 대표적인 분류모델 Decision Trees Neural networks support vector machines Unsupervised Learning (비지도학습) 모델 학습에 '정답' 필요없음 데이터만 있..
2020/04/12 - [Data mining] - 나이브 베이즈 정리 앞의 포스팅과 이어집니다. Gaussian Naive Bayes (가우시안 나이브 베이즈) 앞의 예시와 같이 베이즈안 분류와 나이브 베이즈 분류의 공통된 리스크는 학습 데이터가 없다면, 빈도수를 기반한 계산법이었기 때문에 0을 반환한다는 점이었습니다. 그래서 평균과 표준편차를 이용해 정규화된 모델인 가우시안 나이브 베이즈 모델을 정의할 수 있습니다. GNB Classifier 학습 지금까지 P(x|class)를 단순히 빈도수에만 기반하여 학습 데이터가 없으면 0으로 나왔 던 리스크를 봐왔습니다. 그래서 이 리스크를 해결하기 위해 normalization 하여 가우시안 분포를 따른다고 가정하고, 문제를 풀어보려고 합니다. 우리는 가우시..
나이브 베이즈 정리 베이지안 네트워크를 정의하기 전에 베이즈 정리의 개념을 알아야 하는데요. 베이즈 정리란 두 확률 변수의 사전확률과 사후확률 사이의 관계를 나타내는 정리로, 베이즈 확률에 따르면 베이즈 정리는 사전확률로부터 사후확률을 구할 수 있는 정리입니다. 예시 베이즈 정리의 예시를 들면, 가장 대표적인 예제인 '주머니에서 공 꺼내기' 예시입니다. 순서는 이렇습니다. 두 개의 주머니 A , B가 있습니다. 주머니 A에는 빨간 공 5개, 파란 공 5개. 주머니 B에는 빨간공 3개, 파란공 7개가 있다고 합시다. 우연히 공을 뽑았을 때, 빨간 공이 주머니 A에서 나올 확률을 구해볼게요. 각 바구니 A와 B에서 빨간공이 나올 확률을 구해봅니다. A와 B의 사전확률(prior)을 구해줍니다. 베이지안 룰을..
Decision Tree Decision tree는 머신러닝 중에서도 대표적인 지도 학습에 속합니다. 지도 학습이란, 모델 학습을 위해 '정답'이 주어진 데이터를 classification 하도록 만든 일종의 러닝 기술입니다. 즉 무언가를 결정할 수 있는 기준을 학습하는 것이 목표입니다. Decision tree 가 'tree' 의 이름이 붙게 된 이유는, 나무를 뒤집어 봤을 때 닮아 붙여졌다고 하는데요. 그래서 제일 상단에 있는 하나의 노드는 루트 노드가 있고, 루트 노드를 시작으로 잔 가지를 branch 라 합니다. 하나 이상의 노드를 포함하고 있다면 하나 이상의 노드를 결정할 수 있어 Decision node라 하고, 반면 가장 말단에 있는 자식이 없는 노드를 leaf node(분류 종료) 라 합니..