일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Python강의
- java
- Gradient Descent
- 비용함수
- 경사하강법
- 자바강좌
- feature scaling
- python강좌
- 효묘블로그
- 백준 알고리즘
- 자바
- 머신러닝
- 자바시작하기
- 딥러닝공부
- 인공지능
- acmicpc.net
- 파이썬강의
- 파이썬강좌
- 지도학습
- 머신러닝 강좌
- 선형회귀
- JAVA강좌
- 머신러닝 강의
- 비지도학습
- 딥러닝
- C언어
- c언어 오목
- 머신러닝공부
- unsupervised learning
- supervised learning
Archives
- Today
- Total
목록경사하강법파이썬 (1)
컴공과컴맹효묘의블로그
수알못의 머신러닝 공부 : 경사하강법 Python으로 구현해보기
지금까지 공부한 선형회귀를 수식적으로 표현한 후에 Python으로 구현해볼려고 합니다. 아래의 수식들은 이전 포스팅에서 자세히 다뤘습니다. 바로가기 수알못의 머신러닝 공부 : 비용함수 수알못의 머신러닝 공부 : 경사하강법 일단 점들을 지나는 직선을 표현해보겠습니다. 그리고 오차를 구합니다. 위 수식의 오차는 쓸모가 없습니다. 이유는 만약, 2개의 데이터셋에서 오차가 각각 -1, 1이 나온다면, 오차들의 평균은 0이기때문에 적절한 오차를 구할 수 없습니다. 따라서 절댓값 혹은 제곱을 씌워줍니다. 절댓값은 미분 불가능한 점이 나올 수 있기때문에 제곱을 씌워줍니다. 그리고 데이터셋의 개수인 m으로 나누고, 미분하면 2가 떨어지니 1/2을 또 곱합니다. 비용함수를 구했습니다. 이제 비용함수의 극소값을 구하기 위..
컴퓨터/머신러닝
2019. 6. 18. 16:06