일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- java
- feature scaling
- Gradient Descent
- 인공지능
- c언어 오목
- 자바시작하기
- 비지도학습
- 딥러닝
- 자바강좌
- 비용함수
- 선형회귀
- python강좌
- unsupervised learning
- acmicpc.net
- 딥러닝공부
- 지도학습
- 머신러닝공부
- 파이썬강의
- Python강의
- C언어
- 파이썬강좌
- 백준 알고리즘
- 머신러닝 강좌
- 경사하강법
- 머신러닝
- 머신러닝 강의
- 자바
- supervised learning
- JAVA강좌
- 효묘블로그
Archives
- Today
- Total
목록머신러닝 경사하강법 (1)
컴공과컴맹효묘의블로그

저번 시간에는 비용함수에 대해서 공부했습니다. 다시 정리하지면, 비용함수는 "오차를 표현해주는 미분 가능한 함수" 입니다. 비용함수가 오차들의(제곱의)평균이므로 오차의 최소값을 구해야겠죠? 실제로 최소값(global minimum)을 구하는 것은 어려우니, 경사하강법으로 극소값(local minimum)을 구할 수 있습니다. 따라서 경사하강법은 비용함수의 극소값을 구하는 방법입니다. 경사하강법 Gradient descent 경사하강법은 특정한 점 x를 잡고, 비용함수의 기울기를 구한 후, 기울기에 따라서 x의 값을 변화시켜주는 방법입니다. 그림으로 쉽게 설명하겠습니다. 여기 단순한 y=x^2의 그래프가 있습니다. 그리고 이 그래프의 아무점, 예를들어서 7.5를 잡아본다고 하겠습니다. x = 7.5일 때,..
컴퓨터/머신러닝
2019. 6. 17. 21:23