|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 15.634920634920634, |
|
"eval_steps": 500, |
|
"global_step": 500, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.6349206349206349, |
|
"grad_norm": 0.4482170343399048, |
|
"learning_rate": 0.0002, |
|
"loss": 1.465, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 1.253968253968254, |
|
"grad_norm": 0.23053646087646484, |
|
"learning_rate": 0.00019166666666666667, |
|
"loss": 0.5978, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 1.8888888888888888, |
|
"grad_norm": 0.19822551310062408, |
|
"learning_rate": 0.00018333333333333334, |
|
"loss": 0.4609, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 2.507936507936508, |
|
"grad_norm": 0.21611981093883514, |
|
"learning_rate": 0.000175, |
|
"loss": 0.3933, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 3.126984126984127, |
|
"grad_norm": 0.217985600233078, |
|
"learning_rate": 0.0001666666666666667, |
|
"loss": 0.3577, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 3.761904761904762, |
|
"grad_norm": 0.30673453211784363, |
|
"learning_rate": 0.00015833333333333332, |
|
"loss": 0.318, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 4.380952380952381, |
|
"grad_norm": 0.32899099588394165, |
|
"learning_rate": 0.00015000000000000001, |
|
"loss": 0.2821, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 0.6824074983596802, |
|
"learning_rate": 0.00014166666666666668, |
|
"loss": 0.2549, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 5.634920634920634, |
|
"grad_norm": 0.3640708029270172, |
|
"learning_rate": 0.00013333333333333334, |
|
"loss": 0.1909, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 6.253968253968254, |
|
"grad_norm": 0.5191685557365417, |
|
"learning_rate": 0.000125, |
|
"loss": 0.1707, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 6.888888888888889, |
|
"grad_norm": 0.40223005414009094, |
|
"learning_rate": 0.00011666666666666668, |
|
"loss": 0.1376, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 7.507936507936508, |
|
"grad_norm": 0.42533406615257263, |
|
"learning_rate": 0.00010833333333333333, |
|
"loss": 0.1092, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 8.126984126984127, |
|
"grad_norm": 0.3342105448246002, |
|
"learning_rate": 0.0001, |
|
"loss": 0.0947, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 8.761904761904763, |
|
"grad_norm": 0.4351166784763336, |
|
"learning_rate": 9.166666666666667e-05, |
|
"loss": 0.0736, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 9.380952380952381, |
|
"grad_norm": 0.33051586151123047, |
|
"learning_rate": 8.333333333333334e-05, |
|
"loss": 0.0653, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 0.6931056976318359, |
|
"learning_rate": 7.500000000000001e-05, |
|
"loss": 0.0606, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 10.634920634920634, |
|
"grad_norm": 0.31095370650291443, |
|
"learning_rate": 6.666666666666667e-05, |
|
"loss": 0.0483, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 11.253968253968253, |
|
"grad_norm": 0.3269076347351074, |
|
"learning_rate": 5.833333333333334e-05, |
|
"loss": 0.0451, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 11.88888888888889, |
|
"grad_norm": 0.2958855628967285, |
|
"learning_rate": 5e-05, |
|
"loss": 0.0417, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 12.507936507936508, |
|
"grad_norm": 0.18271532654762268, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 0.0368, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 13.126984126984127, |
|
"grad_norm": 0.11632124334573746, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.0362, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 13.761904761904763, |
|
"grad_norm": 0.15796127915382385, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.033, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 14.380952380952381, |
|
"grad_norm": 0.1253138780593872, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.0325, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 15.0, |
|
"grad_norm": 0.25612324476242065, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.0318, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 15.634920634920634, |
|
"grad_norm": 0.13210661709308624, |
|
"learning_rate": 0.0, |
|
"loss": 0.0308, |
|
"step": 500 |
|
} |
|
], |
|
"logging_steps": 20, |
|
"max_steps": 500, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 17, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 2.914740380239135e+17, |
|
"train_batch_size": 16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|