일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 경사하강법
- 머신러닝 강좌
- Gradient Descent
- unsupervised learning
- 지도학습
- 비용함수
- Python강의
- 파이썬강좌
- 파이썬강의
- JAVA강좌
- 비지도학습
- supervised learning
- 머신러닝 강의
- acmicpc.net
- 딥러닝
- 인공지능
- 선형회귀
- 딥러닝공부
- python강좌
- feature scaling
- 자바강좌
- 자바시작하기
- 백준 알고리즘
- 머신러닝
- java
- c언어 오목
- C언어
- 자바
- 효묘블로그
- 머신러닝공부
Archives
- Today
- Total
컴공과컴맹효묘의블로그
머신러닝 회귀 분석 Feature Scaling 본문
반응형
Feature Scaling은 회귀모델에서 독립변수의 범위를 비슷하게 잡아주는 방법이다. Feature Scaling을 하면 좀 더 적합한 모델을 얻을 수 있다.
여기서 독립변수는 y = a_0 + a_1*x_1 + a_2*x_2+ ... 에서 x_i를 말한다. 각각의 독립변수를 Feature(특징)이라고도 한다.
각각의 매개변수 θ0과 θ1에 대해서, x1의 범위가 x2보다 비상적으로 크면 적합한 매개변수를 찾는데에 좀 많은 시간이 걸릴 것입니다.
다음 그림은 매개변수에 따른 비용함수의 값을 등고선으로 나타낸 것입니다.
독립변수의 값은 -1≤ x ≤1 에 가깝게 설정해주는것이 가장 좋다고 합니다. 예를들어 1≤ x ≤3이나 -1.5≤ x ≤0.7 은 나쁘지 않지만, -256≤ x ≤40과 0.005≤ x ≤0.01은 적합한 범위를 벗어납니다.
새로운 feature를 설정하는 식을 알려드리겠습니다.
x_std[:,0] = (x[:,0] - x[:,0].mean()) / x[:,0].std()
단, x_0(x_0=1)은 feature scaling을 적용하면 안됩니다.
반응형
'컴퓨터 > 머신러닝' 카테고리의 다른 글
수알못의 머신러닝 : 선형회귀 - normal equation 정규방정식 (0) | 2019.08.23 |
---|---|
Polynomail Regression 다항식 회귀 (0) | 2019.08.19 |
수알못의 머신러닝 공부 : 학습률(learning rate)을 적절히 설정하는 방법 (0) | 2019.08.15 |
수알못의 머신러닝 공부 : 행렬과 벡터로 경사하강법을 (0) | 2019.07.25 |
수알못의 머신러닝 공부 : 역행렬과 전치행렬 (0) | 2019.07.13 |
Comments