일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 자바강좌
- C언어
- 머신러닝 강의
- unsupervised learning
- 자바
- c언어 오목
- 머신러닝공부
- 자바시작하기
- python강좌
- 머신러닝
- 파이썬강의
- java
- 백준 알고리즘
- 비지도학습
- JAVA강좌
- 선형회귀
- supervised learning
- 인공지능
- 딥러닝
- feature scaling
- Gradient Descent
- 지도학습
- 머신러닝 강좌
- 파이썬강좌
- 효묘블로그
- 비용함수
- 경사하강법
- 딥러닝공부
- acmicpc.net
- Python강의
Archives
- Today
- Total
목록머신러닝 공부 (1)
컴공과컴맹효묘의블로그
수알못의 머신러닝 : 선형회귀 - normal equation 정규방정식
Normal Equation 정규방정식 지금까지 선형회귀의 모델을 최적화 시키는데에 있어서 경사하강법을 사용했습니다. 이번 포스팅에서는 특정 선형 회귀문제에서 θ를 구하는데 효과적인 방법을 설명하겠습니다. 기존에는 경사하강법을 사용해서 θ의 최적값을 구했습니다. 경사하강법은 최적의 θ를 구하기위해서 특정 알고리즘을 어떤 값에 수렴 할때까지 계속 반복해야합니다. 하지만 Normal Equation(정규 방정식)을 사용하면 반복할 필요없이 한번에 최적의 θ를 구할 수 있습니다. θ가 벡터가 아니라 스칼랄고 가정합시다. 위와같은 cost function(비용함수)이 있을 때 최솟값 θ를 구하는건 간단합니다. 미적분을 배운사람이면, 저 방정식을 미분해서 0이되는 값을 찾기만하면 된다는 것을 직관적으로 알 수 있..
컴퓨터/머신러닝
2019. 8. 23. 16:29