본문 바로가기

코딩 독학/모두의딥러닝4

[모두의딥러닝] 6장. 퍼셉트론 퍼셉트론의 개념 : 뉴런은 자극이 역치를 넘으면 다음 뉴런으로 신호를 전달한다. 퍼셉트론도 이 뉴런과 비슷한 개념으로 우리가 설정한 활성화 함수에 의해 입력값을 계산하여 일정수준을 넘으면 참, 넘지 못하면 거짓을 내보내는 회로이다. 이렇게 퍼셉트론을 서로 조합하여 만든 것이 인공신경망(Artificial Neural Network)이다. 입력값으로 x0 ~ xn 을 넣으면, 가중합을 구하고 해당 가중합을 활성함수에 넣어 값이 임곗값보다 크면 y =1(참), 작으면 y=0 (거짓) 으로 출력하게 된다. y = w1x1 + w2x2 ... +wnxn + b → 가중합(weighted sum) w : 가중치(weight), b : 바이어스(bias) 활성함수 : binary classification에서 사용.. 2020. 9. 30.
[모두의딥러닝] 5장. 로지스틱회귀 (Logistic regression) 참(1)거짓(0)으로 y가 정의되는 Binary classification 에서 사용할 수 있는 Learning 알고리즘이 Logistic regression이다. 그런데 여기서 사용하는 예측함수가 직선의 방정식이라면 y값이 0과 1로 나타내질 수 없다. 그래서 대신 사용하는 것이 시그모이드함수 이고 Binary classification에서 마지막 레이어의 활성함수로 사용한다. 시그모이드함수 기존의 데이터(x,y)을 임의의 가중치 (a, b)에 따라 선형회귀분석하여 구한 예측함수 y = ax+b 로는 참/거짓 (1/0)의 y값을 나타낼 수 없다. 따라서 y 값이 0.5보다 크면 1, 작으면 0으로 판별하는 함수로 시그모이드함수를 이용한다. 선형회귀 가중치 (a, b)가 여기서는 (w, b)로 나타내졌다.. 2020. 9. 29.
모두의 딥러닝 4장. 오차수정하기: 경사하강법 이전내용에 이어서 설명 : https://bookandmed.tistory.com/9?category=1152328 [모두의딥러닝] 3장. 선형회귀 (Logistic regression) 선형회귀란? 한 개 이상의 독립변수(설명변수, x)와 종속변수(y)의 상관관계를 모델링하는 회귀기법이고, 이에 따라 만들어진 회귀식을 선형모델이라고 한다. 하나의 y에 하나의 x가 대응되는 경� bookandmed.tistory.com 앞에서 그냥 쫙 그은 직선에서 실제 y값과 비교하여 평균제곱오차(mse)를 구했다. 이 mse 가 최소가 되는 직선을 구하는 것이 경사하강법이다. 손실함수(loss func) = 비용함수(cost func) : 알고리즘의 오차를 나타내는 함수로 이 오차가 최소가 되는 지점의 가중치(w)를.. 2020. 9. 29.
[모두의딥러닝] 3장. 선형회귀 (Logistic regression) 선형회귀란? 한 개 이상의 독립변수(설명변수, x)와 종속변수(y)의 상관관계를 모델링하는 회귀기법이고, 이에 따라 만들어진 회귀식을 선형모델이라고 한다. 하나의 y에 하나의 x가 대응되는 경우 단순선형회귀, 둘이상의 x가 대응되는 경우 다중선형회귀 라고 한다. 활용 1. 값을 예측할 때 사용한다. → y가 없는 x에 대하여 기존의 데이터를 기반으로 만든 선형모델을 통해 y를 예측한다. 2. x와 y의 관계들을 정량화한다. → 다중선형회귀라면 여러특징의 x들중 y와 상관도가 가장 높은게 무엇인지를 알아낼 수 있다. 쉽게 말해 좌표위에 점이 이렇게 찍혀있으면 얘들을 가장 잘 설명할 수 있는 직선을 하나 쫙 긋는다는 말이다. y = ax + b라는 선을 그을텐데, 주어진 (x, y)들을 가지고 최적화된 a와.. 2020. 9. 29.