분류 전체보기
-
º 랜덤한 값을 가지는 텐서 생성 1. torch.rand() : 0과 1 사이의 숫자를 균등하게 생성 2. torch.rand_like() : 사이즈를 튜플로 입력하지 않고 기존의 텐서로 정의 3. torch.randn() : 평균이 0이고 표준편차가 1인 가우시안 정규분포를 이용해 생성 4. torch.randn_like() : 사이즈를 튜플로 입력하지 않고 기존의 텐서로 정의 5. torch.randint() : 주어진 범위 내의 정수를 균등하게 생성, 자료형은 torch.float32 6. torch.randint_like() : 사이즈를 튜플로 입력하지 않고 기존의 텐서로 정의 7. torch.randperm() : 주어진 범위 내의 정수를 랜덤하게 생성 º 특정한 값을 가지는 텐서 생성 1. ..
creating tensorº 랜덤한 값을 가지는 텐서 생성 1. torch.rand() : 0과 1 사이의 숫자를 균등하게 생성 2. torch.rand_like() : 사이즈를 튜플로 입력하지 않고 기존의 텐서로 정의 3. torch.randn() : 평균이 0이고 표준편차가 1인 가우시안 정규분포를 이용해 생성 4. torch.randn_like() : 사이즈를 튜플로 입력하지 않고 기존의 텐서로 정의 5. torch.randint() : 주어진 범위 내의 정수를 균등하게 생성, 자료형은 torch.float32 6. torch.randint_like() : 사이즈를 튜플로 입력하지 않고 기존의 텐서로 정의 7. torch.randperm() : 주어진 범위 내의 정수를 랜덤하게 생성 º 특정한 값을 가지는 텐서 생성 1. ..
2021.06.18 -
AlexNet Max pooling, ReLU nonlinearity More data and bigger model (7 hidden layers, 650k units, 60M params) GPU implementation (50x speedup over CPU) Trained on two GPUs for a week Dropout regularization 61M parameters VGG Net Small filters, Deeper networks AlexNet(8 layer) VS VGG16(16~19 layers) Only 3x3 convolution stride 1, pad 1 and 2x2 maxpool stride 2 Why 3x3 stacks? Stacked convolution la..
CNN ArchitecturesAlexNet Max pooling, ReLU nonlinearity More data and bigger model (7 hidden layers, 650k units, 60M params) GPU implementation (50x speedup over CPU) Trained on two GPUs for a week Dropout regularization 61M parameters VGG Net Small filters, Deeper networks AlexNet(8 layer) VS VGG16(16~19 layers) Only 3x3 convolution stride 1, pad 1 and 2x2 maxpool stride 2 Why 3x3 stacks? Stacked convolution la..
2021.06.14 -
Feature concatenation Channel-dimension concatenation Spatial dimension concatenation Size increased Example GoogleNet (128 + 192 + 96 + 256 => Filter Concatenation => 672 Spatial Pyramid P Net (16 + 4 + 1) U-Net merging (elementwise) Size remains same Example Feature Pyramid Network Merged with the corresponding bottom-up map (which undergoes a 1x1 convolutional layer to reduce channel dimensio..
Aggregating FeaturesFeature concatenation Channel-dimension concatenation Spatial dimension concatenation Size increased Example GoogleNet (128 + 192 + 96 + 256 => Filter Concatenation => 672 Spatial Pyramid P Net (16 + 4 + 1) U-Net merging (elementwise) Size remains same Example Feature Pyramid Network Merged with the corresponding bottom-up map (which undergoes a 1x1 convolutional layer to reduce channel dimensio..
2021.06.14 -
Up-sampling (For making the input or feature map larger) Why we need? Upsampling features RGB Image inputs to Segmentation Output (e.g. Segnet Architecture) How? By resize Nearest Neighbor Interpolation Bilinear Interpolation By transposed convolution Let the neural networks learns how to upscaling features. Upsampling through Resize (Interpolation) 1D 1D Nearest-Neighbor Linear f(1), f(2) 가 주어질..
Up-samplingUp-sampling (For making the input or feature map larger) Why we need? Upsampling features RGB Image inputs to Segmentation Output (e.g. Segnet Architecture) How? By resize Nearest Neighbor Interpolation Bilinear Interpolation By transposed convolution Let the neural networks learns how to upscaling features. Upsampling through Resize (Interpolation) 1D 1D Nearest-Neighbor Linear f(1), f(2) 가 주어질..
2021.06.14 -
* Pooling - feature map의 dimension을 줄이는 방법 - 계산량을 조절하기 위해 - classification을 위한 Fully connected Layer와 연결하기 쉽게 하도록 - 특정 위치의 신경망 출력을 근처 출력들의 summary statistics로 대체 - 특징의 구체적인 위치가 아닌, 특징의 존재 여부 자체가 중요할 때 - 입력이 국소적으로 이동하더라도 근사적으로 불변성을 가지게 함 * max pooling - the biggest value - reducing spartial dimension - emphasizes feature * average pooling - bluhing feature * Adaptive pooling - variant input size에..
CNN [1] : Pooling & Convolution* Pooling - feature map의 dimension을 줄이는 방법 - 계산량을 조절하기 위해 - classification을 위한 Fully connected Layer와 연결하기 쉽게 하도록 - 특정 위치의 신경망 출력을 근처 출력들의 summary statistics로 대체 - 특징의 구체적인 위치가 아닌, 특징의 존재 여부 자체가 중요할 때 - 입력이 국소적으로 이동하더라도 근사적으로 불변성을 가지게 함 * max pooling - the biggest value - reducing spartial dimension - emphasizes feature * average pooling - bluhing feature * Adaptive pooling - variant input size에..
2021.06.07 -
- Trial [0] Referenced from https://www.keycloak.org/getting-started/getting-started-operator-kubernetes Keycloak - Guide - Keycloak Operator on Kubernetes Before logging into the Admin Console, you need to check what is the Admin Username and Password. The credentials are stored inside the following Secret: $ kubectl get keycloak mykeycloak --output="jsonpath={.status.credentialSecret}" credent..
keycloak on kubernetes project [0]- Trial [0] Referenced from https://www.keycloak.org/getting-started/getting-started-operator-kubernetes Keycloak - Guide - Keycloak Operator on Kubernetes Before logging into the Admin Console, you need to check what is the Admin Username and Password. The credentials are stored inside the following Secret: $ kubectl get keycloak mykeycloak --output="jsonpath={.status.credentialSecret}" credent..
2021.05.31 -
- CNN : Convolutional Neural Network - Typical CNN architectures - Key Operations in CNN - Fully connected layer - input image (32, 32, 3) --> (3072, 1) // stretch, 32*32*3 = 3072 - weight (10, 3072) - activation (1, 10) - Fully connected layer는 서로 다른 weight으로 전체 레이어에 대해 계산하지만, Convolutional layer는 localized area만 보고, weight가 공유된다. - Convolutional layer - input image (32, 32, 3) - filter (5, 5, ..
CNN [0]- CNN : Convolutional Neural Network - Typical CNN architectures - Key Operations in CNN - Fully connected layer - input image (32, 32, 3) --> (3072, 1) // stretch, 32*32*3 = 3072 - weight (10, 3072) - activation (1, 10) - Fully connected layer는 서로 다른 weight으로 전체 레이어에 대해 계산하지만, Convolutional layer는 localized area만 보고, weight가 공유된다. - Convolutional layer - input image (32, 32, 3) - filter (5, 5, ..
2021.05.24 -
- Not a Number라는 뜻으로, Python의 notation 중 하나이다. - 이게 보이면 원인을 찾아서 해결하는 것이 좋다. - 보통 Infinity value로 인해 생겨난다. - NaN과 연관된 연산은 죄다 NaN이 되므로 골치아프다. zero devide by zero (0/0) Infinity devide by Infinity (Inf/Inf) Inf-Inf, -Inf-Inf, -Inf+Inf (Inf+Inf = Inf) zero multiplied by Infinity, Infinity multiplied by zero (0*Inf, Inf*0) x
NaN- Not a Number라는 뜻으로, Python의 notation 중 하나이다. - 이게 보이면 원인을 찾아서 해결하는 것이 좋다. - 보통 Infinity value로 인해 생겨난다. - NaN과 연관된 연산은 죄다 NaN이 되므로 골치아프다. zero devide by zero (0/0) Infinity devide by Infinity (Inf/Inf) Inf-Inf, -Inf-Inf, -Inf+Inf (Inf+Inf = Inf) zero multiplied by Infinity, Infinity multiplied by zero (0*Inf, Inf*0) x
2021.05.24