New!
GELU(Gaussian Error Linear Unit)
self-supervised의 이해
FLOPs - 딥러닝의 연산량 (feat. MAC)
[좀 더 깔끔하게 정리 필요]CNN의 inductive bias ( + 머신러닝에서의 bias와 variance )
[lr scheduler] cosine annealing
Deformable Convolution
Grouped convolution
Batch normalization
Activation function
Tensor Decomposition Theory
[작성중]딥러닝에서의 calibration
PReLU(Prametric ReLU)
밑바닥부터 시작하는 딥러닝
딥러닝 고속화
Optimization
Classification task에서 MSE보다 Cross Entropy 를 주로 사용하는 이유?
Transformer
Transformer : Attention Is All You Need
개념 한장 그림 정리!
이전 블로그 글
PatchGAN Discriminator
Markov Random Field
ResNet
L1, L2 Norm/Regularization
Receptive Field
Batch Normalization
여러가지 Convolution연산
GoogleNet(Inception V1)
VGG16
GAN
RNN
CNN
GD Algorithm(경사하강법)/ Backpropagation(오차 역전파)/Activation function
딥러닝이란?