
지난 강의에서는 로지스틱 회귀 모델과 단일 훈련 샘플이 얼마나 잘 작동하는 지 측정하는 손실함수, 그리고 매개변수 \(w\)와 \(b\)가 훈련 세트 전체를 얼마나 잘 예측하는지 측정하는 비용함수에 대해서 알아봤다. 이제 경사하강법 알고리즘을 사용해 매개변수 \(w\)와 \(b\)를 훈련 세트에 학습시키는 방법을 알아보자.경사하강법 (Gradient descent)이전 시간의 비용함수가 전체 데이터셋의 예측이 얼마나 잘 평가되었는지 보는 것이라면,경사하강법은 이를 가능케하는 파라미터 \(w\)와 \(b\)를 찾아내는 방법 중 하나이다. 따라서, 매개변수 \(w\)와 \(b\)를 알아내기 위해서는 비용함수 \(J(w, b)\)를 가장 작게 만드는 \(w\)와 \(b\)를 찾아냐 할 것이다. 우선, 비용..
Coursera 강의/Deep Learning Specialization
2024. 8. 14. 13:39
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 경사하강법
- policy function
- sorted
- Sort
- 딥러닝
- 숏코딩
- 앤드류응
- 비용함수
- 강화학습
- action value function
- 백준
- adrew ng 머신러닝 강의
- baekjoon
- 로지스틱 회귀
- state value function
- computation graph
- python
- numpy 배열 속성
- 강의노트 정리
- **
- *args
- Andrew Ng
- 손실함수
- omp: error #15
- **kwargs
- 11870
- numpy 배열 생성
- 파이썬
- NumPy
- *
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
글 보관함