본문 바로가기

코딩 독학41

[cs231n] 11강. Detection and Segmentation ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. 1. Semantic Segmentation Semantic segmentation은 하나의 이미지 안에서 일부 픽셀들이 어떤 클래스에 속하는지 알아내는 과정이다. 단, 동일한 객체에 대해서는 분리하지 않는다는 단점이 있다. Semantic segmentation의 첫번째 방법은, 모든 픽셀이 어떤 카테고리에 속하는지 찾아내는 방법인데, 계산량이 너무 많아서 그다지 좋은 방법은 아니다. 두번째로는 fully convolutional layer이다. 여러층의 convolutional layer라고 생각하면, spa.. 2020. 12. 19.
[cs231n] 10강. Recurrent Neural Networks ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. Review 2014년에는 Batch normalization 기술이 없었기 때문에 깊은 모델이 converge하기 위해서는 다른 방법이 필요했다. GoogLeNet에서 auxillary layer를 사용했던 것이 Batch norm을 대신하기 위한 장치같은 것이었다. 그리고 이 때까지는 하나의 input x를 넣으면 하나의 output y를 뽑아내는 구조인 CNN에 대해서 배웠다. 오늘은 input과 output이 여러개가 될 수 있는 Recurrent Neural Network에 대해서 배워본다. RNN 개념.. 2020. 12. 12.
[cs231n] 9 강. CNN architectures 이번 강의에서는 CNN의 훌륭한 아키텍쳐들을 몇가지 살펴볼 것이다. Contents 1. AlexNet 2. VGGNet 3. GoogLeNet 4. ResNet Review - 1998년 처음으로 CNN이라는 개념을 개발한 네트워크로 LeNet이 있었다. - Conv layer와 subsampling(average pooling layer) layer를 거쳐 마지막에 1차원벡터로 쫙펴주는 FC layer가 있는 구조였다. AlexNet 가장먼저 2012년에 ImageNet 이미지를 기반으로 한 화상 인식 대회인 ILSVRC-2012의 우승자 AlexNet부터 보자. - 기본 구조는 [Conv-Max pooling-(normalization)] x 2 - CONV-CONV-CONV - Max poolin.. 2020. 12. 4.
[cs231n] 7강. Training Neural Networks II ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. 이번 강의에서는 NN을 훈련시키는 나머지 방법들에 대해서 공부한다. 지난 시간에는 가중치초기화, 학습률설정, 배치정규화 등에 대하여 배웠고, 이번 강에서는 NN을 더 최적화시키기 위해 1. Gradient update의 방법들 2. Regularization방법들 을 중점적으로 공부한다. Optimization 방법 NN의 loss가 최저인 지점을 찾아가기 위해 backpropagation을 거듭하게 되는데 가장 지름길로 빠르게 가기 위한 gradient update에는 여러 방법이 있다. 하나씩 살펴보자! 1... 2020. 11. 21.
[cs231n] 6강. Training Neural Network 1 ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. ##이해수반 내용정리 추가하기## 개요 이제까지는 딥러닝이 어떻게 작동하고 구현되는지에 대한 원리를 살펴보았다. 오늘은 그러한 원리를 이용해 딥러닝을 설계할 때 우리가 주의깊게 설정하고 구성할 단계들과 파라미터 등에 대하여 본다. 1. Activation functions 2. Data preprocessing 3. Weight initialization 4. Batch normalization 5. Babysitting the learning process 6. Hyperparameter optimization.. 2020. 11. 14.
[22일차] KNN 분류, 회귀모델 from sklearn.neighbors import KNeighborsRegressor X, Y = mglearn.datasets.make_wave(n_samples=40) X_train,X_test, y_train, y_test = train_test_split(X, Y, random_state=0) reg = KNeighborsRegressor(n_neighbors=3) reg.fit(X_train, y_train) print(reg.predict([[3]])) print(reg.score(X_test, y_test)) [0.91241374] 0.8344172446249605 ✔ 본 포스팅은 ICT COG Academy의 기본반 0일차 강의를 정리한 내용입니다. 1.0 mglearn import m.. 2020. 11. 11.