optimizer.zero_grad()            
# gradient calculation
loss.backward() 
# gradient update
optimizer.step()

Pytorch에서는

loss 계산 → gradient 계산(loss.backward() → loss에서 계산한 gradient를 기반으로 oprimizer로 weights 업데이트( optimizer.step() )

이 순서로 gradient descent를 통한 웨이트 업데이트가 이뤄지는데

loss와 optimizer 이 둘은 pytorch에서 어떻게 연결되는걸까?

Untitled