일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 자바
- unsupervised learning
- 선형회귀
- 머신러닝
- 경사하강법
- supervised learning
- 지도학습
- 자바강좌
- 머신러닝 강의
- 효묘블로그
- 비용함수
- 딥러닝
- 자바시작하기
- python강좌
- java
- JAVA강좌
- Python강의
- acmicpc.net
- 백준 알고리즘
- 딥러닝공부
- 머신러닝 강좌
- 인공지능
- 머신러닝공부
- feature scaling
- 비지도학습
- C언어
- Gradient Descent
- 파이썬강좌
- 파이썬강의
- c언어 오목
Archives
- Today
- Total
목록learning rate (1)
컴공과컴맹효묘의블로그

경사하강법에서 학습률이란 한번 학습할때 얼만큼 변화를 주는지에대한 상수입니다. 예를들어 부산에서 서울까지 가는데에 순간이동을 한다고 합시다. 만약 서울방향으로 10km씩 순간이동을 하면 금방 갈것입니다. 하지만 만약 1m씩 순간이동을 하면 너무 오래걸리겠죠. 그리고 1000km씩 순간이동을 하면 서울을 지나 오히려 더 멀어질것입니다. 얼마큼씩 이동할때 이 거리가 바로 학습률입니다. 이 블로그에서 처음 학습률이 등장하는 포스트 : https://hyomyo.tistory.com/13?category=820909 수알못의 머신러닝 공부 : 경사하강법 저번 시간에는 비용함수에 대해서 공부했습니다. 다시 정리하지면, 비용함수는 "오차를 표현해주는 미분 가능한 함수" 입니다. 비용함수가 오차들의(제곱의)평균이므로..
컴퓨터/머신러닝
2019. 8. 15. 19:58