딥러닝 기초 용어 정리( Epoch, Loss, Accuracy)
안녕하세요. 쿠루가이입니다. 오늘은 학습을 할 때 자주 나오는 용어인 Epoch, Loss, Accuracy에 대해서 간단히 정리해보겠습니다. Epoch 에폭이라고 읽고, 전체 데이터가 모두 학습한 단위를 말합니다. 즉, 1에폭은 dataset의 전체 레코드를 한번씩 학습했다는 의미입니다. 아래와 같이 `num_train_epochs = 5`와 같은 경우, 전체 dataset의 전체 레코드를 5번씩 학습했다는 의미입니다. # import transformers # # needed for gpt-neo-x tokenizer tokenizer.pad_token = tokenizer.eos_token trainer = maskTrainer( model=model, train_dataset=data["train..
2023.08.26