|
{ |
|
"best_metric": 0.8474514118078474, |
|
"best_model_checkpoint": "save_model/flan-t5-small-twitter-sentiment-analysis/checkpoint-16875", |
|
"epoch": 10.0, |
|
"global_step": 18750, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 0.4402, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 0.2228, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 0.2136, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_accuracy": 0.8270493716038271, |
|
"eval_loss": 0.19231748580932617, |
|
"eval_runtime": 84.5141, |
|
"eval_samples_per_second": 354.935, |
|
"eval_steps_per_second": 5.549, |
|
"step": 1875 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 0.211, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 0.2042, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 4.2e-05, |
|
"loss": 0.2022, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 0.1971, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_accuracy": 0.8367170050338367, |
|
"eval_loss": 0.18650780618190765, |
|
"eval_runtime": 84.5536, |
|
"eval_samples_per_second": 354.769, |
|
"eval_steps_per_second": 5.547, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 0.1966, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 3.8e-05, |
|
"loss": 0.1906, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 0.1934, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 2.93, |
|
"learning_rate": 3.5333333333333336e-05, |
|
"loss": 0.1883, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_accuracy": 0.8402506917358402, |
|
"eval_loss": 0.18298229575157166, |
|
"eval_runtime": 84.3321, |
|
"eval_samples_per_second": 355.701, |
|
"eval_steps_per_second": 5.561, |
|
"step": 5625 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 0.185, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 3.47, |
|
"learning_rate": 3.266666666666667e-05, |
|
"loss": 0.1811, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 3.73, |
|
"learning_rate": 3.1333333333333334e-05, |
|
"loss": 0.1845, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 3e-05, |
|
"loss": 0.1846, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"eval_accuracy": 0.8415174850818415, |
|
"eval_loss": 0.18108856678009033, |
|
"eval_runtime": 84.5574, |
|
"eval_samples_per_second": 354.753, |
|
"eval_steps_per_second": 5.547, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 4.27, |
|
"learning_rate": 2.8666666666666668e-05, |
|
"loss": 0.1778, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 4.53, |
|
"learning_rate": 2.733333333333333e-05, |
|
"loss": 0.1788, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 4.8, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 0.1753, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"eval_accuracy": 0.8441510817748441, |
|
"eval_loss": 0.1792929321527481, |
|
"eval_runtime": 84.3334, |
|
"eval_samples_per_second": 355.695, |
|
"eval_steps_per_second": 5.561, |
|
"step": 9375 |
|
}, |
|
{ |
|
"epoch": 5.07, |
|
"learning_rate": 2.466666666666667e-05, |
|
"loss": 0.1777, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 5.33, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 0.1726, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 5.6, |
|
"learning_rate": 2.2000000000000003e-05, |
|
"loss": 0.1748, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 5.87, |
|
"learning_rate": 2.0666666666666666e-05, |
|
"loss": 0.1704, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"eval_accuracy": 0.8432509917658433, |
|
"eval_loss": 0.1813008189201355, |
|
"eval_runtime": 84.0893, |
|
"eval_samples_per_second": 356.728, |
|
"eval_steps_per_second": 5.577, |
|
"step": 11250 |
|
}, |
|
{ |
|
"epoch": 6.13, |
|
"learning_rate": 1.9333333333333333e-05, |
|
"loss": 0.1685, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 6.4, |
|
"learning_rate": 1.8e-05, |
|
"loss": 0.1696, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 6.67, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.1699, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 6.93, |
|
"learning_rate": 1.5333333333333334e-05, |
|
"loss": 0.1689, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"eval_accuracy": 0.8457845784578458, |
|
"eval_loss": 0.1814945936203003, |
|
"eval_runtime": 84.0394, |
|
"eval_samples_per_second": 356.94, |
|
"eval_steps_per_second": 5.581, |
|
"step": 13125 |
|
}, |
|
{ |
|
"epoch": 7.2, |
|
"learning_rate": 1.4000000000000001e-05, |
|
"loss": 0.1705, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 7.47, |
|
"learning_rate": 1.2666666666666668e-05, |
|
"loss": 0.1661, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 7.73, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 0.1651, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"learning_rate": 1e-05, |
|
"loss": 0.1648, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"eval_accuracy": 0.8461179451278461, |
|
"eval_loss": 0.1826968640089035, |
|
"eval_runtime": 83.8792, |
|
"eval_samples_per_second": 357.621, |
|
"eval_steps_per_second": 5.591, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 8.27, |
|
"learning_rate": 8.666666666666668e-06, |
|
"loss": 0.164, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 8.53, |
|
"learning_rate": 7.333333333333334e-06, |
|
"loss": 0.1635, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 8.8, |
|
"learning_rate": 6e-06, |
|
"loss": 0.1661, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 9.0, |
|
"eval_accuracy": 0.8474514118078474, |
|
"eval_loss": 0.18213823437690735, |
|
"eval_runtime": 84.2718, |
|
"eval_samples_per_second": 355.955, |
|
"eval_steps_per_second": 5.565, |
|
"step": 16875 |
|
}, |
|
{ |
|
"epoch": 9.07, |
|
"learning_rate": 4.666666666666667e-06, |
|
"loss": 0.1606, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 9.33, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 0.1636, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 9.6, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 0.1626, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 9.87, |
|
"learning_rate": 6.666666666666667e-07, |
|
"loss": 0.1618, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"eval_accuracy": 0.847084708470847, |
|
"eval_loss": 0.18182113766670227, |
|
"eval_runtime": 84.3952, |
|
"eval_samples_per_second": 355.435, |
|
"eval_steps_per_second": 5.557, |
|
"step": 18750 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"step": 18750, |
|
"total_flos": 1.1152314939211776e+17, |
|
"train_loss": 0.18639904093424478, |
|
"train_runtime": 5881.7351, |
|
"train_samples_per_second": 204.001, |
|
"train_steps_per_second": 3.188 |
|
} |
|
], |
|
"max_steps": 18750, |
|
"num_train_epochs": 10, |
|
"total_flos": 1.1152314939211776e+17, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|