autograd1 Autograd Autograd는 파이토치를 이용해 Back Propagation을 할 수 있도록 도와주는 방식이다. 코드로 이해해보자. import torch DEVICE = torch.device('cuda' if torch.cuda.is_available() else 'cpu') # parameter 설정 BATCH_SIZE = 64 INPUT_SIZE = 1000 HIDDEN_SIZE = 100 OUTPUT_SIZE = 10 우선 이와 같이 파라미터를 설정한다. BATCH_SIZE는 파라미터를 업데이트 할 때, 계산되는 데이터의 개수이다. BATCH_SIZE 수 많큼 계산하여 loss를 구한다. INPUT_SIZE는 입력층의 노드 수이다. 여기서는 1000인데, 따라서 input의 모양은 (64, 1000)이 된.. 2024. 3. 4. 이전 1 다음