일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 자바강좌
- 자바
- unsupervised learning
- 딥러닝공부
- c언어 오목
- 자바시작하기
- java
- 머신러닝공부
- feature scaling
- supervised learning
- acmicpc.net
- 머신러닝 강의
- 머신러닝 강좌
- 인공지능
- 파이썬강좌
- Python강의
- 머신러닝
- 비지도학습
- python강좌
- 경사하강법
- 효묘블로그
- 백준 알고리즘
- 파이썬강의
- 딥러닝
- 비용함수
- Gradient Descent
- 선형회귀
- 지도학습
- C언어
- JAVA강좌
Archives
- Today
- Total
목록supervised learning 원리 (1)
컴공과컴맹효묘의블로그
머신러닝 회귀 분석 Feature Scaling
Feature Scaling은 회귀모델에서 독립변수의 범위를 비슷하게 잡아주는 방법이다. Feature Scaling을 하면 좀 더 적합한 모델을 얻을 수 있다. 여기서 독립변수는 y = a_0 + a_1*x_1 + a_2*x_2+ ... 에서 x_i를 말한다. 각각의 독립변수를 Feature(특징)이라고도 한다. 각각의 매개변수 θ0과 θ1에 대해서, x1의 범위가 x2보다 비상적으로 크면 적합한 매개변수를 찾는데에 좀 많은 시간이 걸릴 것입니다. 다음 그림은 매개변수에 따른 비용함수의 값을 등고선으로 나타낸 것입니다. 독립변수의 값은 -1≤ x ≤1 에 가깝게 설정해주는것이 가장 좋다고 합니다. 예를들어 1≤ x ≤3이나 -1.5≤ x ≤0.7 은 나쁘지 않지만, -256≤ x ≤40과 0.005≤ ..
컴퓨터/머신러닝
2019. 8. 19. 13:47