
로지스틱 회귀의 경사하강법에 대해서 알아보자 로지스틱 회귀의 경사하강법 - 단일 훈련 샘플 다음은 로지스틱 회귀이다. a : 로지스틱 회귀의 출력 값y : 실제 값\( L(a,y) \) : 하나의 샘플에 대한 손실 함수 아래는 로지스틱 회귀를 계산 그래프로 나타낸 것이다.이 예제는 특성이 \(x_{1}\)과 \(x_{2}\) 2개이다. 여기서 구하고자 하는 것은 이 손실 함수의 도함수이다. 역방향으로 가서, \(da\), \(dz\), \(dw_{1}\), \(dw_{2}\), \(db\)를 구해보자. 이렇게 계산하고 나면, 다음과 같이 갱신한다. 도함수를 계산하고, 단일 샘플에 대한 로지스틱 회귀의 경사하강법을 구현하는 방법을 알아보았다. 하지만, 로지스틱 회귀 모델을 훈련시키려면 단일 샘플이 아..

신경망에서 학습하는 방법은 정방향 전파와 역전파가 있다. 로지스틱 분류로 신경망이 왜 전방향 전파와 역전파로 구성되어 있는지 직관을 얻어보자. 이진 분류 (Binary Classification) 이진 분류란 그렇다와 아니다 2가지로 분류하는 것이다. 이때 결과가 "그렇다" 이면 1로 표현하고 "아니다"이면 0으로 표현한다. ex) 고양이다 (1) / 고양이가 아니다 (0). \(x\) : 입력 특성\(y\) : 주어진 입력 특성 \(x\) 에 해당하는 실제 값\( (x,y) \) : 한쌍의 훈련 샘플\(m\) : 훈련 샘플의 갯수\( n_{x} \) : \(x\)에 대한 차원 신경망을 구현할 때, 여러 훈련 샘플에 관한 데이터를 각각의 열로 놓는 것이 유용하다.로지스틱 회귀 (Logistic ..
- Total
- Today
- Yesterday
- 강의노트 정리
- action value function
- numpy 배열 속성
- 앤드류응
- **kwargs
- computation graph
- policy function
- numpy 배열 생성
- Andrew Ng
- NumPy
- baekjoon
- **
- 손실함수
- 로지스틱 회귀
- 11870
- adrew ng 머신러닝 강의
- 비용함수
- sorted
- python
- 강화학습
- state value function
- *args
- Sort
- omp: error #15
- 딥러닝
- *
- 경사하강법
- 숏코딩
- 백준
- 파이썬
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |