본문 바로가기
코딩 독학/모두의딥러닝

[모두의딥러닝] 5장. 로지스틱회귀 (Logistic regression)

by 효니루 2020. 9. 29.

참(1)거짓(0)으로 y가 정의되는 Binary classification 에서 사용할 수 있는  Learning 알고리즘이 Logistic regression이다.

 

그런데 여기서 사용하는 예측함수가 직선의 방정식이라면 y값이 0과 1로 나타내질 수 없다.

그래서 대신 사용하는 것이 시그모이드함수 이고 Binary classification에서 마지막 레이어의 활성함수로 사용한다.

 

시그모이드함수

기존의 데이터(x,y)을  임의의 가중치 (a, b)에 따라 선형회귀분석하여 구한 예측함수 y = ax+b 로는 참/거짓 (1/0)의 y값을 나타낼 수 없다. 따라서 y 값이 0.5보다 크면 1, 작으면 0으로 판별하는 함수로 시그모이드함수를 이용한다.

 

 

선형회귀 가중치 (a, b)가 여기서는 (w, b)로 나타내졌다.

 

여기서 b가 커지면 그래프는 전체적으로 오른쪽으로 이동하며, a가 커지면 그래프경사가 가파르게 변한다.

 

 

 

이 시그모이드 활성함수의 결괏값은 특정데이터 x를 넣었을때 y = 1 (참)일 확률을 말한다.  하지만 이 함수에도 실제데이터와는 오차가 있을 것이다.  이 오차를 최소화시키는 가중치 a와 b를  구하는게 우리의 목표다.

 

시그모이드함수의 비용함수(오차함수, 손실함수)

https://yujuwon.tistory.com/entry/TENSORFLOW-Logistic-regression-Classification

 

 

 

 

 

 

시그모이드함수의 오차함수는 MSE 가 아닌 위의 함수를 사용한다. 

 

 

 

댓글