-
Pytorch에서는 왜 항상 optimizer.zero_grad()를 해줄까?머신러닝 및 딥러닝 2021. 1. 17. 19:06
바로 질문에 대한 답을 말씀드리자면 "Pytorch에서는 gradients값들을 추후에 backward를 해줄때 계속 더해주기 때문"에 우리는 항상 backpropagation을 하기전에 gradients를 zero로 만들어주고 시작을 해야합니다.
이렇게 gradients을 더해주는 방식은 RNN을 학습시킬때 매우 편리한 방식입니다.
따라서 매번 loss.backward()를 호출할때 초기설정은 매번 gradient를 더해주는 것으로 설정되어있습니다.
그렇기 때문에 학습 loop를 돌때 이상적으로 학습이 이루어지기 위해선 한번의 학습이 완료되어지면(즉, Iteration이 한번 끝나면) gradients를 항상 0으로 만들어 주어야 합니다. 만약 gradients를 0으로 초기화해주지 않으면 gradient가 의도한 방향이랑 다른 방향을 가르켜 학습이 원하는 방향으로 이루어 지지 않습니다.
'머신러닝 및 딥러닝' 카테고리의 다른 글
ROUGE (0) 2021.07.16 서브워드 토크나이저 (0) 2021.01.23 Batch Normalization은 왜 사용하는 것일까? (0) 2021.01.17 Hyperparameter 튜닝은 어떻게 하는걸까? (0) 2021.01.17 Dropout 이란 무엇인가 (2) 2021.01.16