일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- java
- unsupervised learning
- JAVA강좌
- 효묘블로그
- 인공지능
- 경사하강법
- Python강의
- 자바
- feature scaling
- 비용함수
- 지도학습
- 백준 알고리즘
- 딥러닝
- 파이썬강좌
- 머신러닝
- 딥러닝공부
- 머신러닝 강의
- 파이썬강의
- c언어 오목
- 선형회귀
- 자바시작하기
- supervised learning
- python강좌
- 머신러닝 강좌
- 자바강좌
- 머신러닝공부
- Gradient Descent
- acmicpc.net
- C언어
- 비지도학습
Archives
- Today
- Total
목록인공지능 학습률 (1)
컴공과컴맹효묘의블로그
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/IVZGx/btqxvNaavPW/85TU0OMGfQ8yMpDWjagoNK/img.png)
경사하강법에서 학습률이란 한번 학습할때 얼만큼 변화를 주는지에대한 상수입니다. 예를들어 부산에서 서울까지 가는데에 순간이동을 한다고 합시다. 만약 서울방향으로 10km씩 순간이동을 하면 금방 갈것입니다. 하지만 만약 1m씩 순간이동을 하면 너무 오래걸리겠죠. 그리고 1000km씩 순간이동을 하면 서울을 지나 오히려 더 멀어질것입니다. 얼마큼씩 이동할때 이 거리가 바로 학습률입니다. 이 블로그에서 처음 학습률이 등장하는 포스트 : https://hyomyo.tistory.com/13?category=820909 수알못의 머신러닝 공부 : 경사하강법 저번 시간에는 비용함수에 대해서 공부했습니다. 다시 정리하지면, 비용함수는 "오차를 표현해주는 미분 가능한 함수" 입니다. 비용함수가 오차들의(제곱의)평균이므로..
컴퓨터/머신러닝
2019. 8. 15. 19:58