참(1)거짓(0)으로 y가 정의되는 Binary classification 에서 사용할 수 있는 Learning 알고리즘이 Logistic regression이다.
그런데 여기서 사용하는 예측함수가 직선의 방정식이라면 y값이 0과 1로 나타내질 수 없다.
그래서 대신 사용하는 것이 시그모이드함수 이고 Binary classification에서 마지막 레이어의 활성함수로 사용한다.
시그모이드함수
기존의 데이터(x,y)을 임의의 가중치 (a, b)에 따라 선형회귀분석하여 구한 예측함수 y = ax+b 로는 참/거짓 (1/0)의 y값을 나타낼 수 없다. 따라서 y 값이 0.5보다 크면 1, 작으면 0으로 판별하는 함수로 시그모이드함수를 이용한다.
선형회귀 가중치 (a, b)가 여기서는 (w, b)로 나타내졌다.
여기서 b가 커지면 그래프는 전체적으로 오른쪽으로 이동하며, a가 커지면 그래프경사가 가파르게 변한다.
이 시그모이드 활성함수의 결괏값은 특정데이터 x를 넣었을때 y = 1 (참)일 확률을 말한다. 하지만 이 함수에도 실제데이터와는 오차가 있을 것이다. 이 오차를 최소화시키는 가중치 a와 b를 구하는게 우리의 목표다.
시그모이드함수의 비용함수(오차함수, 손실함수)
시그모이드함수의 오차함수는 MSE 가 아닌 위의 함수를 사용한다.
'코딩 독학 > 모두의딥러닝' 카테고리의 다른 글
[모두의딥러닝] 6장. 퍼셉트론 (0) | 2020.09.30 |
---|---|
모두의 딥러닝 4장. 오차수정하기: 경사하강법 (0) | 2020.09.29 |
[모두의딥러닝] 3장. 선형회귀 (Logistic regression) (0) | 2020.09.29 |
댓글