| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 0.9866666666666667, | |
| "eval_steps": 500, | |
| "global_step": 37, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.02666666666666667, | |
| "grad_norm": 1.2341294288635254, | |
| "learning_rate": 2e-08, | |
| "loss": 2.5931, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 0.05333333333333334, | |
| "grad_norm": 1.2536474466323853, | |
| "learning_rate": 4e-08, | |
| "loss": 2.6482, | |
| "step": 2 | |
| }, | |
| { | |
| "epoch": 0.08, | |
| "grad_norm": 1.2513841390609741, | |
| "learning_rate": 6e-08, | |
| "loss": 2.6562, | |
| "step": 3 | |
| }, | |
| { | |
| "epoch": 0.10666666666666667, | |
| "grad_norm": 1.3047804832458496, | |
| "learning_rate": 8e-08, | |
| "loss": 2.6583, | |
| "step": 4 | |
| }, | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 1.2453253269195557, | |
| "learning_rate": 1e-07, | |
| "loss": 2.6485, | |
| "step": 5 | |
| }, | |
| { | |
| "epoch": 0.16, | |
| "grad_norm": 1.258643388748169, | |
| "learning_rate": 1.2e-07, | |
| "loss": 2.6387, | |
| "step": 6 | |
| }, | |
| { | |
| "epoch": 0.18666666666666668, | |
| "grad_norm": 1.2245391607284546, | |
| "learning_rate": 1.4e-07, | |
| "loss": 2.6184, | |
| "step": 7 | |
| }, | |
| { | |
| "epoch": 0.21333333333333335, | |
| "grad_norm": 1.2385927438735962, | |
| "learning_rate": 1.6e-07, | |
| "loss": 2.6197, | |
| "step": 8 | |
| }, | |
| { | |
| "epoch": 0.24, | |
| "grad_norm": 1.2002660036087036, | |
| "learning_rate": 1.8e-07, | |
| "loss": 2.5916, | |
| "step": 9 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 1.2453193664550781, | |
| "learning_rate": 2e-07, | |
| "loss": 2.6565, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.29333333333333333, | |
| "grad_norm": 1.21246337890625, | |
| "learning_rate": 2.1999999999999998e-07, | |
| "loss": 2.587, | |
| "step": 11 | |
| }, | |
| { | |
| "epoch": 0.32, | |
| "grad_norm": 1.2298332452774048, | |
| "learning_rate": 2.4e-07, | |
| "loss": 2.6227, | |
| "step": 12 | |
| }, | |
| { | |
| "epoch": 0.3466666666666667, | |
| "grad_norm": 1.2597002983093262, | |
| "learning_rate": 2.6e-07, | |
| "loss": 2.5938, | |
| "step": 13 | |
| }, | |
| { | |
| "epoch": 0.37333333333333335, | |
| "grad_norm": 1.2415564060211182, | |
| "learning_rate": 2.8e-07, | |
| "loss": 2.5884, | |
| "step": 14 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 1.2372887134552002, | |
| "learning_rate": 3e-07, | |
| "loss": 2.5861, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.4266666666666667, | |
| "grad_norm": 1.2886784076690674, | |
| "learning_rate": 3.2e-07, | |
| "loss": 2.6261, | |
| "step": 16 | |
| }, | |
| { | |
| "epoch": 0.4533333333333333, | |
| "grad_norm": 1.2416927814483643, | |
| "learning_rate": 3.4000000000000003e-07, | |
| "loss": 2.5839, | |
| "step": 17 | |
| }, | |
| { | |
| "epoch": 0.48, | |
| "grad_norm": 1.216277837753296, | |
| "learning_rate": 3.6e-07, | |
| "loss": 2.5641, | |
| "step": 18 | |
| }, | |
| { | |
| "epoch": 0.5066666666666667, | |
| "grad_norm": 1.2399628162384033, | |
| "learning_rate": 3.7999999999999996e-07, | |
| "loss": 2.5632, | |
| "step": 19 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 1.2063959836959839, | |
| "learning_rate": 4e-07, | |
| "loss": 2.5406, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.56, | |
| "grad_norm": 1.1886483430862427, | |
| "learning_rate": 4.1999999999999995e-07, | |
| "loss": 2.56, | |
| "step": 21 | |
| }, | |
| { | |
| "epoch": 0.5866666666666667, | |
| "grad_norm": 1.1740903854370117, | |
| "learning_rate": 4.3999999999999997e-07, | |
| "loss": 2.5308, | |
| "step": 22 | |
| }, | |
| { | |
| "epoch": 0.6133333333333333, | |
| "grad_norm": 1.1613523960113525, | |
| "learning_rate": 4.6e-07, | |
| "loss": 2.501, | |
| "step": 23 | |
| }, | |
| { | |
| "epoch": 0.64, | |
| "grad_norm": 1.1368118524551392, | |
| "learning_rate": 4.8e-07, | |
| "loss": 2.4631, | |
| "step": 24 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 1.1325236558914185, | |
| "learning_rate": 5e-07, | |
| "loss": 2.4893, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 0.6933333333333334, | |
| "grad_norm": 1.1021853685379028, | |
| "learning_rate": 5.2e-07, | |
| "loss": 2.4318, | |
| "step": 26 | |
| }, | |
| { | |
| "epoch": 0.72, | |
| "grad_norm": 1.0801576375961304, | |
| "learning_rate": 5.4e-07, | |
| "loss": 2.3959, | |
| "step": 27 | |
| }, | |
| { | |
| "epoch": 0.7466666666666667, | |
| "grad_norm": 1.066163420677185, | |
| "learning_rate": 5.6e-07, | |
| "loss": 2.3994, | |
| "step": 28 | |
| }, | |
| { | |
| "epoch": 0.7733333333333333, | |
| "grad_norm": 1.041783332824707, | |
| "learning_rate": 5.8e-07, | |
| "loss": 2.3688, | |
| "step": 29 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 1.0001304149627686, | |
| "learning_rate": 6e-07, | |
| "loss": 2.306, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.8266666666666667, | |
| "grad_norm": 0.9618411660194397, | |
| "learning_rate": 6.2e-07, | |
| "loss": 2.2591, | |
| "step": 31 | |
| }, | |
| { | |
| "epoch": 0.8533333333333334, | |
| "grad_norm": 0.9413911700248718, | |
| "learning_rate": 6.4e-07, | |
| "loss": 2.2718, | |
| "step": 32 | |
| }, | |
| { | |
| "epoch": 0.88, | |
| "grad_norm": 0.8884423971176147, | |
| "learning_rate": 6.6e-07, | |
| "loss": 2.2095, | |
| "step": 33 | |
| }, | |
| { | |
| "epoch": 0.9066666666666666, | |
| "grad_norm": 0.8435046672821045, | |
| "learning_rate": 6.800000000000001e-07, | |
| "loss": 2.1859, | |
| "step": 34 | |
| }, | |
| { | |
| "epoch": 0.9333333333333333, | |
| "grad_norm": 0.7909976243972778, | |
| "learning_rate": 7e-07, | |
| "loss": 2.0985, | |
| "step": 35 | |
| }, | |
| { | |
| "epoch": 0.96, | |
| "grad_norm": 0.7318310737609863, | |
| "learning_rate": 7.2e-07, | |
| "loss": 2.0707, | |
| "step": 36 | |
| }, | |
| { | |
| "epoch": 0.9866666666666667, | |
| "grad_norm": 0.7080361247062683, | |
| "learning_rate": 7.4e-07, | |
| "loss": 2.0884, | |
| "step": 37 | |
| } | |
| ], | |
| "logging_steps": 1, | |
| "max_steps": 111, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 3, | |
| "save_steps": 37, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": false | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 8.037573450950246e+18, | |
| "train_batch_size": 4, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |