Skip to content

NKJP parameter tuning

Optymalizacja parametrów uczenia na zbiorze NKJP.

Założenia:

  • Wyniki mają być logowane do wandb,
  • Uczenie na NKJP,
  • Test dla różnych wartości dropuout: od 0,1 do 0,8 z krokiem 0,1.
wandb login e754aec91f2650f309c3db6e8b41da40cafa5ceb

Snipper:

# Init wandb
import wandb
wandb.init(project="poldeepner2-nkjp")
 Model instantiation code ...
# Log metrics with wandb
wandb.watch(model)
 Model train/evaluate code ...
model.train()
for batch_idx, (data, target) in enumerate(train_loader)
    if batch_idx % args.log_interval == 0:
        wandb.log({"Test Accuracy": correct / total, "Test Loss": loss})

# Save model to wandb
torch.save(model.state_dict(), os.path.join(wandb.run.dir, 'model.pt'))
Edited by Michał Marcińczuk