본문 바로가기

Gradient Descent3

C1 W2 L13 ~ L14 C1W2L13. Vectorizing Logistic Regression for 문 없이 로지스틱회귀의 정방향전파를 코드로 구현해보자 > 2020. 10. 9.
C1W2L10 ~C1W2L12 C1W2L10. Gradient Descent on m Examples 앞에서는 단일샘플에 대하여 경사하강법을 구현했다면, 이번에는 m개의 샘플에 대해 구현해보자. m개의 (x, y) 샘플이 있고 x는 피처값, y는 참/거짓을 나타내는 레이블값이다. 샘플간의 구분을 위해 i번째 샘플임을 위첨자로 나타냈다. m개의 샘플 전체에 대해 가중치 (w,b)를 적용한 비용함수 J(w,b)는 각샘플의 손실함수 L(a, y) 의 평균을 낸 것과 같다. 마찬가지로 도함수도 각 샘플의 도함수를 평균낸 것과 같다. 이것을 통해 경사하강법에 사용할 전체적인 경사를 구할 수 있다. 이것을 코드로 구현해보면 다음과 같다. 1. 먼저 값을 초기화한다. 2. m개의 샘플에 대하여 z, a, J 식을 for문으로 작성한다. 3. 최종.. 2020. 10. 7.
C1W2L4 ~ C1W2L9 futurelab.creatorlink.net/ C1W2L4. Gradient Descent (경사하강법) 이제까지 Binary classification에서 주어진 데이터를 가지고 임의로 설정한 가중치 (w,b)에 대한 선형예측함수를 만들고, 이함수의 결괏값을 binary classification에 적용하기 위해 한차례 더 시그모이드함수에 넣어서 예측값 y_hat을 구했다. 실제결괏값 y와 우리가 임의로 설정한 가중치 (w, b)로 설정한 예측모델함수에 의한 결괏값 y_hat의 오차를 나타내는 오차함수 J(w,b)가 있다. 이것이 가장 작아지는 (w,b)를 구하는 것이 목표이다. x축이 w, y축이 b, z축이 J(w,b)인 3차원그래프를 그려보면 다음과 같다. 특별히 한지점이 볼록한 최솟값을 갖게 .. 2020. 10. 7.