본문 바로가기

분류 전체보기53

[cs231n] 9 강. CNN architectures 이번 강의에서는 CNN의 훌륭한 아키텍쳐들을 몇가지 살펴볼 것이다. Contents 1. AlexNet 2. VGGNet 3. GoogLeNet 4. ResNet Review - 1998년 처음으로 CNN이라는 개념을 개발한 네트워크로 LeNet이 있었다. - Conv layer와 subsampling(average pooling layer) layer를 거쳐 마지막에 1차원벡터로 쫙펴주는 FC layer가 있는 구조였다. AlexNet 가장먼저 2012년에 ImageNet 이미지를 기반으로 한 화상 인식 대회인 ILSVRC-2012의 우승자 AlexNet부터 보자. - 기본 구조는 [Conv-Max pooling-(normalization)] x 2 - CONV-CONV-CONV - Max poolin.. 2020. 12. 4.
[cs231n] 8강. Deep Learning Software ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. CPU vs GPU CPU : Central Processing Unit - 더 적은 수의 cores (4~10개 정도로 한번에 20개의 일을 시행) - 각 코어는 더 빠르고, 연속적 처리에 좋다. (sequential tasks) - cache(데이터나 값을 복사해놓는 임시장소)가 있지만, 대부분의 메모리는 컴퓨터 디스크에서 사용 GPU : Graphics Processing Unit -> NVIDIA 최고! - 수천개의 코어 - 각 코어는 더 느리지만 동시에 일을 수행 (parallel tasks) - 개별적.. 2020. 11. 28.
[cs231n] 7강. Training Neural Networks II ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. 이번 강의에서는 NN을 훈련시키는 나머지 방법들에 대해서 공부한다. 지난 시간에는 가중치초기화, 학습률설정, 배치정규화 등에 대하여 배웠고, 이번 강에서는 NN을 더 최적화시키기 위해 1. Gradient update의 방법들 2. Regularization방법들 을 중점적으로 공부한다. Optimization 방법 NN의 loss가 최저인 지점을 찾아가기 위해 backpropagation을 거듭하게 되는데 가장 지름길로 빠르게 가기 위한 gradient update에는 여러 방법이 있다. 하나씩 살펴보자! 1... 2020. 11. 21.
[cs231n] 6강. Training Neural Network 1 ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. ##이해수반 내용정리 추가하기## 개요 이제까지는 딥러닝이 어떻게 작동하고 구현되는지에 대한 원리를 살펴보았다. 오늘은 그러한 원리를 이용해 딥러닝을 설계할 때 우리가 주의깊게 설정하고 구성할 단계들과 파라미터 등에 대하여 본다. 1. Activation functions 2. Data preprocessing 3. Weight initialization 4. Batch normalization 5. Babysitting the learning process 6. Hyperparameter optimization.. 2020. 11. 14.
[22일차] KNN 분류, 회귀모델 from sklearn.neighbors import KNeighborsRegressor X, Y = mglearn.datasets.make_wave(n_samples=40) X_train,X_test, y_train, y_test = train_test_split(X, Y, random_state=0) reg = KNeighborsRegressor(n_neighbors=3) reg.fit(X_train, y_train) print(reg.predict([[3]])) print(reg.score(X_test, y_test)) [0.91241374] 0.8344172446249605 ✔ 본 포스팅은 ICT COG Academy의 기본반 0일차 강의를 정리한 내용입니다. 1.0 mglearn import m.. 2020. 11. 11.
[cs231n] 5강. Convolutional neural networks ✔ 본 포스팅은 20/10/10 ~ 20/12/26 동안 진행하는 가짜연구소 딥러닝기초이론스터디를 통해 학습한 내용입니다. ✔ 본 포스팅은 스탠포드 대학의 cs231n 강의를 정리한 내용입니다. Fully connected layer : 벡터화한 input에 같은 demension을 가진 각 class의 가중치벡터를 곱해 각 클래스의 활성화점수를 구한다. convolution layer : 3차원의 shape을 가진 이미지의 shape을 그대로 보존, 같은 depth를 가진 weight matrix 생성 1. CNN 의 구성 CNN 을 크게 보면 위와 같다. 특징추출영역 : Convolution layer , Pooling layer - Convolutiona layer : 입력데이터에 필터적용 + 활성.. 2020. 11. 8.