일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 자바강좌
- 지도학습
- 머신러닝공부
- 머신러닝 강좌
- c언어 오목
- C언어
- 경사하강법
- java
- supervised learning
- acmicpc.net
- 파이썬강의
- Python강의
- 백준 알고리즘
- feature scaling
- 선형회귀
- 비용함수
- python강좌
- 파이썬강좌
- 머신러닝 강의
- 자바
- 머신러닝
- 인공지능
- 딥러닝공부
- 효묘블로그
- JAVA강좌
- 자바시작하기
- unsupervised learning
- Gradient Descent
- 딥러닝
- 비지도학습
Archives
- Today
- Total
목록learning rate (1)
컴공과컴맹효묘의블로그
수알못의 머신러닝 공부 : 학습률(learning rate)을 적절히 설정하는 방법
경사하강법에서 학습률이란 한번 학습할때 얼만큼 변화를 주는지에대한 상수입니다. 예를들어 부산에서 서울까지 가는데에 순간이동을 한다고 합시다. 만약 서울방향으로 10km씩 순간이동을 하면 금방 갈것입니다. 하지만 만약 1m씩 순간이동을 하면 너무 오래걸리겠죠. 그리고 1000km씩 순간이동을 하면 서울을 지나 오히려 더 멀어질것입니다. 얼마큼씩 이동할때 이 거리가 바로 학습률입니다. 이 블로그에서 처음 학습률이 등장하는 포스트 : https://hyomyo.tistory.com/13?category=820909 수알못의 머신러닝 공부 : 경사하강법 저번 시간에는 비용함수에 대해서 공부했습니다. 다시 정리하지면, 비용함수는 "오차를 표현해주는 미분 가능한 함수" 입니다. 비용함수가 오차들의(제곱의)평균이므로..
컴퓨터/머신러닝
2019. 8. 15. 19:58