일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- java
- 파이썬강의
- 비용함수
- supervised learning
- unsupervised learning
- c언어 오목
- 자바강좌
- 파이썬강좌
- 딥러닝
- feature scaling
- Python강의
- 효묘블로그
- 자바
- python강좌
- acmicpc.net
- Gradient Descent
- C언어
- 경사하강법
- 선형회귀
- 머신러닝 강좌
- 비지도학습
- 자바시작하기
- JAVA강좌
- 백준 알고리즘
- 머신러닝공부
- 지도학습
- 머신러닝 강의
- 딥러닝공부
- 인공지능
- 머신러닝
Archives
- Today
- Total
목록머신러닝 경사하강법 (1)
컴공과컴맹효묘의블로그
수알못의 머신러닝 공부 : 경사하강법
저번 시간에는 비용함수에 대해서 공부했습니다. 다시 정리하지면, 비용함수는 "오차를 표현해주는 미분 가능한 함수" 입니다. 비용함수가 오차들의(제곱의)평균이므로 오차의 최소값을 구해야겠죠? 실제로 최소값(global minimum)을 구하는 것은 어려우니, 경사하강법으로 극소값(local minimum)을 구할 수 있습니다. 따라서 경사하강법은 비용함수의 극소값을 구하는 방법입니다. 경사하강법 Gradient descent 경사하강법은 특정한 점 x를 잡고, 비용함수의 기울기를 구한 후, 기울기에 따라서 x의 값을 변화시켜주는 방법입니다. 그림으로 쉽게 설명하겠습니다. 여기 단순한 y=x^2의 그래프가 있습니다. 그리고 이 그래프의 아무점, 예를들어서 7.5를 잡아본다고 하겠습니다. x = 7.5일 때,..
컴퓨터/머신러닝
2019. 6. 17. 21:23