일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 딥러닝
- 백준 알고리즘
- 효묘블로그
- Gradient Descent
- java
- 머신러닝 강의
- acmicpc.net
- 비지도학습
- 자바
- 비용함수
- 선형회귀
- 자바강좌
- python강좌
- 인공지능
- unsupervised learning
- 머신러닝공부
- supervised learning
- 지도학습
- 딥러닝공부
- 파이썬강좌
- 머신러닝
- C언어
- 머신러닝 강좌
- 자바시작하기
- JAVA강좌
- 파이썬강의
- Python강의
- c언어 오목
- 경사하강법
- feature scaling
- Today
- Total
목록머신러닝 강좌 (2)
컴공과컴맹효묘의블로그
선형회귀 이해에 대한 내용은 아래 나와있습니다. https://hyomyo.tistory.com/11 수알못의 머신러닝 공부 : 비용함수 안녕하세요, 효묘입니다. 요즘 앤드류 응 교수님의 강의를 들으면서 배운 내용을 블로그에 기록해보려고 합니다. 첫 번째로 쓸 내용은 비용함수입니다. Cost function 경제학에서, 비용함수는 어떤 생산량에서의.. hyomyo.tistory.com https://hyomyo.tistory.com/13 수알못의 머신러닝 공부 : 경사하강법 저번 시간에는 비용함수에 대해서 공부했습니다. 다시 정리하지면, 비용함수는 "오차를 표현해주는 미분 가능한 함수" 입니다. 비용함수가 오차들의(제곱의)평균이므로 오차의 최소값을 구해야겠죠? 실제로 최소값.. hyomyo.tistory..
Feature Scaling은 회귀모델에서 독립변수의 범위를 비슷하게 잡아주는 방법이다. Feature Scaling을 하면 좀 더 적합한 모델을 얻을 수 있다. 여기서 독립변수는 y = a_0 + a_1*x_1 + a_2*x_2+ ... 에서 x_i를 말한다. 각각의 독립변수를 Feature(특징)이라고도 한다. 각각의 매개변수 θ0과 θ1에 대해서, x1의 범위가 x2보다 비상적으로 크면 적합한 매개변수를 찾는데에 좀 많은 시간이 걸릴 것입니다. 다음 그림은 매개변수에 따른 비용함수의 값을 등고선으로 나타낸 것입니다. 독립변수의 값은 -1≤ x ≤1 에 가깝게 설정해주는것이 가장 좋다고 합니다. 예를들어 1≤ x ≤3이나 -1.5≤ x ≤0.7 은 나쁘지 않지만, -256≤ x ≤40과 0.005≤ ..