New!


GELU(Gaussian Error Linear Unit)

self-supervised의 이해

FLOPs - 딥러닝의 연산량 (feat. MAC)

[좀 더 깔끔하게 정리 필요]CNN의 inductive bias ( + 머신러닝에서의 bias와 variance )

[lr scheduler] cosine annealing

Deformable Convolution

Grouped convolution

Batch normalization

Activation function

Tensor Decomposition Theory

[작성중]딥러닝에서의 calibration

PReLU(Prametric ReLU)

밑바닥부터 시작하는 딥러닝


딥러닝 고속화

Optimization

Classification task에서 MSE보다 Cross Entropy 를 주로 사용하는 이유?

Transformer


Transformer : Attention Is All You Need

개념 한장 그림 정리!

이전 블로그 글


PatchGAN Discriminator

Markov Random Field

ResNet

L1, L2 Norm/Regularization

Receptive Field

Batch Normalization

여러가지 Convolution연산

GoogleNet(Inception V1)

VGG16

GAN

RNN

CNN

GD Algorithm(경사하강법)/ Backpropagation(오차 역전파)/Activation function

딥러닝이란?