prxy5608's picture
Training in progress, step 200, checkpoint
5090432 verified
{
"best_metric": 6.382301330566406,
"best_model_checkpoint": "miner_id_24/checkpoint-200",
"epoch": 1.3333333333333333,
"eval_steps": 50,
"global_step": 200,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.006666666666666667,
"grad_norm": 1.6381933689117432,
"learning_rate": 1e-05,
"loss": 10.6397,
"step": 1
},
{
"epoch": 0.006666666666666667,
"eval_loss": 10.629864692687988,
"eval_runtime": 1.4619,
"eval_samples_per_second": 173.059,
"eval_steps_per_second": 43.778,
"step": 1
},
{
"epoch": 0.013333333333333334,
"grad_norm": 1.6146544218063354,
"learning_rate": 2e-05,
"loss": 10.6351,
"step": 2
},
{
"epoch": 0.02,
"grad_norm": 1.694298267364502,
"learning_rate": 3e-05,
"loss": 10.6541,
"step": 3
},
{
"epoch": 0.02666666666666667,
"grad_norm": 1.653591513633728,
"learning_rate": 4e-05,
"loss": 10.6182,
"step": 4
},
{
"epoch": 0.03333333333333333,
"grad_norm": 1.7196000814437866,
"learning_rate": 5e-05,
"loss": 10.602,
"step": 5
},
{
"epoch": 0.04,
"grad_norm": 1.789573311805725,
"learning_rate": 6e-05,
"loss": 10.5649,
"step": 6
},
{
"epoch": 0.04666666666666667,
"grad_norm": 1.9765897989273071,
"learning_rate": 7e-05,
"loss": 10.449,
"step": 7
},
{
"epoch": 0.05333333333333334,
"grad_norm": 2.077252149581909,
"learning_rate": 8e-05,
"loss": 10.3879,
"step": 8
},
{
"epoch": 0.06,
"grad_norm": 2.2498137950897217,
"learning_rate": 9e-05,
"loss": 10.2532,
"step": 9
},
{
"epoch": 0.06666666666666667,
"grad_norm": 2.210841178894043,
"learning_rate": 0.0001,
"loss": 10.1166,
"step": 10
},
{
"epoch": 0.07333333333333333,
"grad_norm": 2.3236072063446045,
"learning_rate": 9.999316524962345e-05,
"loss": 9.9803,
"step": 11
},
{
"epoch": 0.08,
"grad_norm": 2.295628309249878,
"learning_rate": 9.997266286704631e-05,
"loss": 9.761,
"step": 12
},
{
"epoch": 0.08666666666666667,
"grad_norm": 2.36259126663208,
"learning_rate": 9.993849845741524e-05,
"loss": 9.6215,
"step": 13
},
{
"epoch": 0.09333333333333334,
"grad_norm": 2.1705455780029297,
"learning_rate": 9.989068136093873e-05,
"loss": 9.4521,
"step": 14
},
{
"epoch": 0.1,
"grad_norm": 2.298909902572632,
"learning_rate": 9.98292246503335e-05,
"loss": 9.1529,
"step": 15
},
{
"epoch": 0.10666666666666667,
"grad_norm": 2.1057233810424805,
"learning_rate": 9.975414512725057e-05,
"loss": 9.0798,
"step": 16
},
{
"epoch": 0.11333333333333333,
"grad_norm": 1.8919862508773804,
"learning_rate": 9.966546331768191e-05,
"loss": 8.9946,
"step": 17
},
{
"epoch": 0.12,
"grad_norm": 1.8262948989868164,
"learning_rate": 9.956320346634876e-05,
"loss": 8.8974,
"step": 18
},
{
"epoch": 0.12666666666666668,
"grad_norm": 1.9114208221435547,
"learning_rate": 9.944739353007344e-05,
"loss": 8.7577,
"step": 19
},
{
"epoch": 0.13333333333333333,
"grad_norm": 2.523731231689453,
"learning_rate": 9.931806517013612e-05,
"loss": 8.7439,
"step": 20
},
{
"epoch": 0.14,
"grad_norm": 2.605613946914673,
"learning_rate": 9.917525374361912e-05,
"loss": 8.6674,
"step": 21
},
{
"epoch": 0.14666666666666667,
"grad_norm": 2.1446597576141357,
"learning_rate": 9.901899829374047e-05,
"loss": 8.5975,
"step": 22
},
{
"epoch": 0.15333333333333332,
"grad_norm": 1.525902271270752,
"learning_rate": 9.884934153917997e-05,
"loss": 8.6035,
"step": 23
},
{
"epoch": 0.16,
"grad_norm": 1.4378074407577515,
"learning_rate": 9.86663298624003e-05,
"loss": 8.3106,
"step": 24
},
{
"epoch": 0.16666666666666666,
"grad_norm": 1.4112677574157715,
"learning_rate": 9.847001329696653e-05,
"loss": 8.3166,
"step": 25
},
{
"epoch": 0.17333333333333334,
"grad_norm": 1.4746986627578735,
"learning_rate": 9.826044551386744e-05,
"loss": 8.1568,
"step": 26
},
{
"epoch": 0.18,
"grad_norm": 1.4394418001174927,
"learning_rate": 9.803768380684242e-05,
"loss": 8.2619,
"step": 27
},
{
"epoch": 0.18666666666666668,
"grad_norm": 1.3305761814117432,
"learning_rate": 9.780178907671789e-05,
"loss": 8.4812,
"step": 28
},
{
"epoch": 0.19333333333333333,
"grad_norm": 1.088888168334961,
"learning_rate": 9.755282581475769e-05,
"loss": 8.3061,
"step": 29
},
{
"epoch": 0.2,
"grad_norm": 1.173352599143982,
"learning_rate": 9.729086208503174e-05,
"loss": 8.2675,
"step": 30
},
{
"epoch": 0.20666666666666667,
"grad_norm": 1.1426469087600708,
"learning_rate": 9.701596950580806e-05,
"loss": 8.4035,
"step": 31
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.9378364682197571,
"learning_rate": 9.672822322997305e-05,
"loss": 8.1475,
"step": 32
},
{
"epoch": 0.22,
"grad_norm": 1.00910222530365,
"learning_rate": 9.642770192448536e-05,
"loss": 8.281,
"step": 33
},
{
"epoch": 0.22666666666666666,
"grad_norm": 1.2551895380020142,
"learning_rate": 9.611448774886924e-05,
"loss": 8.315,
"step": 34
},
{
"epoch": 0.23333333333333334,
"grad_norm": 1.2502933740615845,
"learning_rate": 9.578866633275288e-05,
"loss": 8.4095,
"step": 35
},
{
"epoch": 0.24,
"grad_norm": 1.1748336553573608,
"learning_rate": 9.545032675245813e-05,
"loss": 8.3524,
"step": 36
},
{
"epoch": 0.24666666666666667,
"grad_norm": 1.538738489151001,
"learning_rate": 9.509956150664796e-05,
"loss": 8.32,
"step": 37
},
{
"epoch": 0.25333333333333335,
"grad_norm": 1.3302429914474487,
"learning_rate": 9.473646649103818e-05,
"loss": 8.2126,
"step": 38
},
{
"epoch": 0.26,
"grad_norm": 1.5587679147720337,
"learning_rate": 9.43611409721806e-05,
"loss": 8.0983,
"step": 39
},
{
"epoch": 0.26666666666666666,
"grad_norm": 1.3395634889602661,
"learning_rate": 9.397368756032445e-05,
"loss": 8.0876,
"step": 40
},
{
"epoch": 0.2733333333333333,
"grad_norm": 1.1951045989990234,
"learning_rate": 9.357421218136386e-05,
"loss": 7.9798,
"step": 41
},
{
"epoch": 0.28,
"grad_norm": 1.0867239236831665,
"learning_rate": 9.316282404787871e-05,
"loss": 7.9911,
"step": 42
},
{
"epoch": 0.2866666666666667,
"grad_norm": 1.0854771137237549,
"learning_rate": 9.273963562927695e-05,
"loss": 7.841,
"step": 43
},
{
"epoch": 0.29333333333333333,
"grad_norm": 1.105003833770752,
"learning_rate": 9.230476262104677e-05,
"loss": 7.8518,
"step": 44
},
{
"epoch": 0.3,
"grad_norm": 1.1920799016952515,
"learning_rate": 9.185832391312644e-05,
"loss": 7.8375,
"step": 45
},
{
"epoch": 0.30666666666666664,
"grad_norm": 1.0453646183013916,
"learning_rate": 9.140044155740101e-05,
"loss": 7.8479,
"step": 46
},
{
"epoch": 0.31333333333333335,
"grad_norm": 0.8915311694145203,
"learning_rate": 9.093124073433463e-05,
"loss": 7.7572,
"step": 47
},
{
"epoch": 0.32,
"grad_norm": 0.9154461026191711,
"learning_rate": 9.045084971874738e-05,
"loss": 7.8106,
"step": 48
},
{
"epoch": 0.32666666666666666,
"grad_norm": 1.188502550125122,
"learning_rate": 8.995939984474624e-05,
"loss": 7.9189,
"step": 49
},
{
"epoch": 0.3333333333333333,
"grad_norm": 1.0469354391098022,
"learning_rate": 8.945702546981969e-05,
"loss": 7.6365,
"step": 50
},
{
"epoch": 0.3333333333333333,
"eval_loss": 7.765101909637451,
"eval_runtime": 1.4152,
"eval_samples_per_second": 178.774,
"eval_steps_per_second": 45.223,
"step": 50
},
{
"epoch": 0.34,
"grad_norm": 0.7573084235191345,
"learning_rate": 8.894386393810563e-05,
"loss": 7.6573,
"step": 51
},
{
"epoch": 0.3466666666666667,
"grad_norm": 1.0823854207992554,
"learning_rate": 8.842005554284296e-05,
"loss": 7.5666,
"step": 52
},
{
"epoch": 0.35333333333333333,
"grad_norm": 0.9168323874473572,
"learning_rate": 8.788574348801675e-05,
"loss": 7.657,
"step": 53
},
{
"epoch": 0.36,
"grad_norm": 0.9773350358009338,
"learning_rate": 8.73410738492077e-05,
"loss": 7.4906,
"step": 54
},
{
"epoch": 0.36666666666666664,
"grad_norm": 1.0061911344528198,
"learning_rate": 8.678619553365659e-05,
"loss": 7.5187,
"step": 55
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.9546054005622864,
"learning_rate": 8.622126023955446e-05,
"loss": 7.4891,
"step": 56
},
{
"epoch": 0.38,
"grad_norm": 1.393092155456543,
"learning_rate": 8.564642241456986e-05,
"loss": 7.5511,
"step": 57
},
{
"epoch": 0.38666666666666666,
"grad_norm": 1.0182528495788574,
"learning_rate": 8.506183921362443e-05,
"loss": 7.4952,
"step": 58
},
{
"epoch": 0.3933333333333333,
"grad_norm": 1.1167330741882324,
"learning_rate": 8.44676704559283e-05,
"loss": 7.6829,
"step": 59
},
{
"epoch": 0.4,
"grad_norm": 1.099485158920288,
"learning_rate": 8.386407858128706e-05,
"loss": 7.6573,
"step": 60
},
{
"epoch": 0.4066666666666667,
"grad_norm": 0.9481819868087769,
"learning_rate": 8.32512286056924e-05,
"loss": 7.5194,
"step": 61
},
{
"epoch": 0.41333333333333333,
"grad_norm": 1.2444236278533936,
"learning_rate": 8.262928807620843e-05,
"loss": 7.4323,
"step": 62
},
{
"epoch": 0.42,
"grad_norm": 1.023725152015686,
"learning_rate": 8.199842702516583e-05,
"loss": 7.5138,
"step": 63
},
{
"epoch": 0.4266666666666667,
"grad_norm": 1.0595976114273071,
"learning_rate": 8.135881792367686e-05,
"loss": 7.3202,
"step": 64
},
{
"epoch": 0.43333333333333335,
"grad_norm": 1.1214628219604492,
"learning_rate": 8.07106356344834e-05,
"loss": 7.4049,
"step": 65
},
{
"epoch": 0.44,
"grad_norm": 1.2091435194015503,
"learning_rate": 8.005405736415126e-05,
"loss": 7.7165,
"step": 66
},
{
"epoch": 0.44666666666666666,
"grad_norm": 1.040303349494934,
"learning_rate": 7.938926261462366e-05,
"loss": 7.6203,
"step": 67
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.9848716855049133,
"learning_rate": 7.871643313414718e-05,
"loss": 7.5478,
"step": 68
},
{
"epoch": 0.46,
"grad_norm": 1.2769120931625366,
"learning_rate": 7.803575286758364e-05,
"loss": 7.7026,
"step": 69
},
{
"epoch": 0.4666666666666667,
"grad_norm": 1.2616912126541138,
"learning_rate": 7.734740790612136e-05,
"loss": 7.5614,
"step": 70
},
{
"epoch": 0.47333333333333333,
"grad_norm": 1.140787959098816,
"learning_rate": 7.66515864363997e-05,
"loss": 7.5931,
"step": 71
},
{
"epoch": 0.48,
"grad_norm": 1.6364338397979736,
"learning_rate": 7.594847868906076e-05,
"loss": 7.7462,
"step": 72
},
{
"epoch": 0.4866666666666667,
"grad_norm": 1.3517191410064697,
"learning_rate": 7.52382768867422e-05,
"loss": 7.9593,
"step": 73
},
{
"epoch": 0.49333333333333335,
"grad_norm": 1.3764020204544067,
"learning_rate": 7.452117519152542e-05,
"loss": 7.8646,
"step": 74
},
{
"epoch": 0.5,
"grad_norm": 3.3398163318634033,
"learning_rate": 7.379736965185368e-05,
"loss": 7.6291,
"step": 75
},
{
"epoch": 0.5066666666666667,
"grad_norm": 2.4525671005249023,
"learning_rate": 7.30670581489344e-05,
"loss": 7.4908,
"step": 76
},
{
"epoch": 0.5133333333333333,
"grad_norm": 1.8538157939910889,
"learning_rate": 7.233044034264034e-05,
"loss": 7.3797,
"step": 77
},
{
"epoch": 0.52,
"grad_norm": 1.6827629804611206,
"learning_rate": 7.158771761692464e-05,
"loss": 7.6307,
"step": 78
},
{
"epoch": 0.5266666666666666,
"grad_norm": 1.2399981021881104,
"learning_rate": 7.083909302476453e-05,
"loss": 7.2492,
"step": 79
},
{
"epoch": 0.5333333333333333,
"grad_norm": 1.3008863925933838,
"learning_rate": 7.008477123264848e-05,
"loss": 7.1836,
"step": 80
},
{
"epoch": 0.54,
"grad_norm": 1.4541407823562622,
"learning_rate": 6.932495846462261e-05,
"loss": 7.1977,
"step": 81
},
{
"epoch": 0.5466666666666666,
"grad_norm": 1.4548249244689941,
"learning_rate": 6.855986244591104e-05,
"loss": 7.1569,
"step": 82
},
{
"epoch": 0.5533333333333333,
"grad_norm": 1.3773916959762573,
"learning_rate": 6.778969234612584e-05,
"loss": 6.932,
"step": 83
},
{
"epoch": 0.56,
"grad_norm": 1.355567455291748,
"learning_rate": 6.701465872208216e-05,
"loss": 7.0886,
"step": 84
},
{
"epoch": 0.5666666666666667,
"grad_norm": 1.293992519378662,
"learning_rate": 6.623497346023418e-05,
"loss": 7.0542,
"step": 85
},
{
"epoch": 0.5733333333333334,
"grad_norm": 1.2778198719024658,
"learning_rate": 6.545084971874738e-05,
"loss": 6.8637,
"step": 86
},
{
"epoch": 0.58,
"grad_norm": 1.2121273279190063,
"learning_rate": 6.466250186922325e-05,
"loss": 7.015,
"step": 87
},
{
"epoch": 0.5866666666666667,
"grad_norm": 1.0352461338043213,
"learning_rate": 6.387014543809223e-05,
"loss": 7.0175,
"step": 88
},
{
"epoch": 0.5933333333333334,
"grad_norm": 1.132948398590088,
"learning_rate": 6.307399704769099e-05,
"loss": 6.9116,
"step": 89
},
{
"epoch": 0.6,
"grad_norm": 1.1180634498596191,
"learning_rate": 6.227427435703997e-05,
"loss": 6.6326,
"step": 90
},
{
"epoch": 0.6066666666666667,
"grad_norm": 1.9397624731063843,
"learning_rate": 6.147119600233758e-05,
"loss": 7.0596,
"step": 91
},
{
"epoch": 0.6133333333333333,
"grad_norm": 2.2474684715270996,
"learning_rate": 6.066498153718735e-05,
"loss": 6.8578,
"step": 92
},
{
"epoch": 0.62,
"grad_norm": 1.158443570137024,
"learning_rate": 5.985585137257401e-05,
"loss": 6.8835,
"step": 93
},
{
"epoch": 0.6266666666666667,
"grad_norm": 1.1139155626296997,
"learning_rate": 5.90440267166055e-05,
"loss": 6.7017,
"step": 94
},
{
"epoch": 0.6333333333333333,
"grad_norm": 1.3896214962005615,
"learning_rate": 5.8229729514036705e-05,
"loss": 6.9378,
"step": 95
},
{
"epoch": 0.64,
"grad_norm": 1.246773362159729,
"learning_rate": 5.74131823855921e-05,
"loss": 6.7182,
"step": 96
},
{
"epoch": 0.6466666666666666,
"grad_norm": 1.7253209352493286,
"learning_rate": 5.6594608567103456e-05,
"loss": 6.6144,
"step": 97
},
{
"epoch": 0.6533333333333333,
"grad_norm": 1.5749443769454956,
"learning_rate": 5.577423184847932e-05,
"loss": 6.9089,
"step": 98
},
{
"epoch": 0.66,
"grad_norm": 1.226715326309204,
"learning_rate": 5.495227651252315e-05,
"loss": 7.125,
"step": 99
},
{
"epoch": 0.6666666666666666,
"grad_norm": 1.3733975887298584,
"learning_rate": 5.4128967273616625e-05,
"loss": 6.7155,
"step": 100
},
{
"epoch": 0.6666666666666666,
"eval_loss": 6.902471542358398,
"eval_runtime": 1.4237,
"eval_samples_per_second": 177.708,
"eval_steps_per_second": 44.954,
"step": 100
},
{
"epoch": 0.6733333333333333,
"grad_norm": 1.2160810232162476,
"learning_rate": 5.330452921628497e-05,
"loss": 7.0692,
"step": 101
},
{
"epoch": 0.68,
"grad_norm": 1.231864333152771,
"learning_rate": 5.247918773366112e-05,
"loss": 6.8945,
"step": 102
},
{
"epoch": 0.6866666666666666,
"grad_norm": 1.2489062547683716,
"learning_rate": 5.165316846586541e-05,
"loss": 7.1025,
"step": 103
},
{
"epoch": 0.6933333333333334,
"grad_norm": 1.4517185688018799,
"learning_rate": 5.0826697238317935e-05,
"loss": 6.8416,
"step": 104
},
{
"epoch": 0.7,
"grad_norm": 1.485958456993103,
"learning_rate": 5e-05,
"loss": 7.1086,
"step": 105
},
{
"epoch": 0.7066666666666667,
"grad_norm": 1.5207924842834473,
"learning_rate": 4.917330276168208e-05,
"loss": 7.3767,
"step": 106
},
{
"epoch": 0.7133333333333334,
"grad_norm": 1.5679630041122437,
"learning_rate": 4.834683153413459e-05,
"loss": 7.0808,
"step": 107
},
{
"epoch": 0.72,
"grad_norm": 1.6971476078033447,
"learning_rate": 4.7520812266338885e-05,
"loss": 7.4246,
"step": 108
},
{
"epoch": 0.7266666666666667,
"grad_norm": 1.747584581375122,
"learning_rate": 4.669547078371504e-05,
"loss": 7.1439,
"step": 109
},
{
"epoch": 0.7333333333333333,
"grad_norm": 1.4352521896362305,
"learning_rate": 4.5871032726383386e-05,
"loss": 7.5286,
"step": 110
},
{
"epoch": 0.74,
"grad_norm": 2.118438243865967,
"learning_rate": 4.504772348747687e-05,
"loss": 7.4395,
"step": 111
},
{
"epoch": 0.7466666666666667,
"grad_norm": 2.515925884246826,
"learning_rate": 4.4225768151520694e-05,
"loss": 7.1571,
"step": 112
},
{
"epoch": 0.7533333333333333,
"grad_norm": 2.4835245609283447,
"learning_rate": 4.3405391432896555e-05,
"loss": 7.1947,
"step": 113
},
{
"epoch": 0.76,
"grad_norm": 2.538992166519165,
"learning_rate": 4.2586817614407895e-05,
"loss": 6.8124,
"step": 114
},
{
"epoch": 0.7666666666666667,
"grad_norm": 2.201281785964966,
"learning_rate": 4.17702704859633e-05,
"loss": 7.0082,
"step": 115
},
{
"epoch": 0.7733333333333333,
"grad_norm": 2.949039936065674,
"learning_rate": 4.095597328339452e-05,
"loss": 6.7853,
"step": 116
},
{
"epoch": 0.78,
"grad_norm": 1.6952489614486694,
"learning_rate": 4.0144148627425993e-05,
"loss": 6.7038,
"step": 117
},
{
"epoch": 0.7866666666666666,
"grad_norm": 1.43556809425354,
"learning_rate": 3.933501846281267e-05,
"loss": 6.7951,
"step": 118
},
{
"epoch": 0.7933333333333333,
"grad_norm": 1.3865935802459717,
"learning_rate": 3.852880399766243e-05,
"loss": 6.6128,
"step": 119
},
{
"epoch": 0.8,
"grad_norm": 1.4190902709960938,
"learning_rate": 3.772572564296005e-05,
"loss": 6.5368,
"step": 120
},
{
"epoch": 0.8066666666666666,
"grad_norm": 1.1104280948638916,
"learning_rate": 3.6926002952309016e-05,
"loss": 6.9775,
"step": 121
},
{
"epoch": 0.8133333333333334,
"grad_norm": 1.4352192878723145,
"learning_rate": 3.612985456190778e-05,
"loss": 6.5174,
"step": 122
},
{
"epoch": 0.82,
"grad_norm": 1.5836997032165527,
"learning_rate": 3.533749813077677e-05,
"loss": 6.3366,
"step": 123
},
{
"epoch": 0.8266666666666667,
"grad_norm": 1.9213489294052124,
"learning_rate": 3.4549150281252636e-05,
"loss": 6.3856,
"step": 124
},
{
"epoch": 0.8333333333333334,
"grad_norm": 1.5448235273361206,
"learning_rate": 3.3765026539765834e-05,
"loss": 6.384,
"step": 125
},
{
"epoch": 0.84,
"grad_norm": 1.5515705347061157,
"learning_rate": 3.298534127791785e-05,
"loss": 6.243,
"step": 126
},
{
"epoch": 0.8466666666666667,
"grad_norm": 1.4407246112823486,
"learning_rate": 3.221030765387417e-05,
"loss": 6.4605,
"step": 127
},
{
"epoch": 0.8533333333333334,
"grad_norm": 1.2414093017578125,
"learning_rate": 3.144013755408895e-05,
"loss": 6.2075,
"step": 128
},
{
"epoch": 0.86,
"grad_norm": 1.1296087503433228,
"learning_rate": 3.0675041535377405e-05,
"loss": 6.5588,
"step": 129
},
{
"epoch": 0.8666666666666667,
"grad_norm": 1.2087022066116333,
"learning_rate": 2.991522876735154e-05,
"loss": 6.8457,
"step": 130
},
{
"epoch": 0.8733333333333333,
"grad_norm": 1.1997573375701904,
"learning_rate": 2.916090697523549e-05,
"loss": 6.4406,
"step": 131
},
{
"epoch": 0.88,
"grad_norm": 1.2564754486083984,
"learning_rate": 2.8412282383075363e-05,
"loss": 6.4753,
"step": 132
},
{
"epoch": 0.8866666666666667,
"grad_norm": 1.2567410469055176,
"learning_rate": 2.766955965735968e-05,
"loss": 6.3568,
"step": 133
},
{
"epoch": 0.8933333333333333,
"grad_norm": 1.0489071607589722,
"learning_rate": 2.693294185106562e-05,
"loss": 6.3988,
"step": 134
},
{
"epoch": 0.9,
"grad_norm": 1.1148699522018433,
"learning_rate": 2.6202630348146324e-05,
"loss": 6.6257,
"step": 135
},
{
"epoch": 0.9066666666666666,
"grad_norm": 1.0405628681182861,
"learning_rate": 2.547882480847461e-05,
"loss": 6.492,
"step": 136
},
{
"epoch": 0.9133333333333333,
"grad_norm": 1.3530441522598267,
"learning_rate": 2.476172311325783e-05,
"loss": 6.4214,
"step": 137
},
{
"epoch": 0.92,
"grad_norm": 1.2020103931427002,
"learning_rate": 2.405152131093926e-05,
"loss": 6.4477,
"step": 138
},
{
"epoch": 0.9266666666666666,
"grad_norm": 1.1758826971054077,
"learning_rate": 2.3348413563600325e-05,
"loss": 6.4422,
"step": 139
},
{
"epoch": 0.9333333333333333,
"grad_norm": 1.2299786806106567,
"learning_rate": 2.2652592093878666e-05,
"loss": 6.4735,
"step": 140
},
{
"epoch": 0.94,
"grad_norm": 1.5014129877090454,
"learning_rate": 2.196424713241637e-05,
"loss": 6.5596,
"step": 141
},
{
"epoch": 0.9466666666666667,
"grad_norm": 1.4287091493606567,
"learning_rate": 2.128356686585282e-05,
"loss": 6.8937,
"step": 142
},
{
"epoch": 0.9533333333333334,
"grad_norm": 1.6451044082641602,
"learning_rate": 2.061073738537635e-05,
"loss": 7.0184,
"step": 143
},
{
"epoch": 0.96,
"grad_norm": 1.5953348875045776,
"learning_rate": 1.9945942635848748e-05,
"loss": 6.7456,
"step": 144
},
{
"epoch": 0.9666666666666667,
"grad_norm": 1.6397967338562012,
"learning_rate": 1.928936436551661e-05,
"loss": 6.9816,
"step": 145
},
{
"epoch": 0.9733333333333334,
"grad_norm": 1.7129333019256592,
"learning_rate": 1.8641182076323148e-05,
"loss": 7.2572,
"step": 146
},
{
"epoch": 0.98,
"grad_norm": 2.004953145980835,
"learning_rate": 1.800157297483417e-05,
"loss": 7.3532,
"step": 147
},
{
"epoch": 0.9866666666666667,
"grad_norm": 2.2922816276550293,
"learning_rate": 1.7370711923791567e-05,
"loss": 7.0234,
"step": 148
},
{
"epoch": 0.9933333333333333,
"grad_norm": 1.8938628435134888,
"learning_rate": 1.6748771394307585e-05,
"loss": 6.5994,
"step": 149
},
{
"epoch": 1.0,
"grad_norm": 1.5183442831039429,
"learning_rate": 1.6135921418712956e-05,
"loss": 6.6004,
"step": 150
},
{
"epoch": 1.0,
"eval_loss": 6.487771987915039,
"eval_runtime": 1.4147,
"eval_samples_per_second": 178.834,
"eval_steps_per_second": 45.239,
"step": 150
},
{
"epoch": 1.0066666666666666,
"grad_norm": 1.6162371635437012,
"learning_rate": 1.553232954407171e-05,
"loss": 7.0824,
"step": 151
},
{
"epoch": 1.0133333333333334,
"grad_norm": 1.8865649700164795,
"learning_rate": 1.4938160786375572e-05,
"loss": 6.6495,
"step": 152
},
{
"epoch": 1.02,
"grad_norm": 1.9201303720474243,
"learning_rate": 1.435357758543015e-05,
"loss": 6.8388,
"step": 153
},
{
"epoch": 1.0266666666666666,
"grad_norm": 1.6664762496948242,
"learning_rate": 1.3778739760445552e-05,
"loss": 6.5622,
"step": 154
},
{
"epoch": 1.0333333333333334,
"grad_norm": 2.743537664413452,
"learning_rate": 1.3213804466343421e-05,
"loss": 6.3014,
"step": 155
},
{
"epoch": 1.04,
"grad_norm": 1.2960411310195923,
"learning_rate": 1.2658926150792322e-05,
"loss": 6.4328,
"step": 156
},
{
"epoch": 1.0466666666666666,
"grad_norm": 1.2710509300231934,
"learning_rate": 1.2114256511983274e-05,
"loss": 6.4244,
"step": 157
},
{
"epoch": 1.0533333333333332,
"grad_norm": 1.249668836593628,
"learning_rate": 1.157994445715706e-05,
"loss": 6.064,
"step": 158
},
{
"epoch": 1.06,
"grad_norm": 1.0968729257583618,
"learning_rate": 1.1056136061894384e-05,
"loss": 6.2837,
"step": 159
},
{
"epoch": 1.0666666666666667,
"grad_norm": 1.4061657190322876,
"learning_rate": 1.0542974530180327e-05,
"loss": 6.3597,
"step": 160
},
{
"epoch": 1.0733333333333333,
"grad_norm": 1.1481869220733643,
"learning_rate": 1.0040600155253765e-05,
"loss": 6.109,
"step": 161
},
{
"epoch": 1.08,
"grad_norm": 1.2133780717849731,
"learning_rate": 9.549150281252633e-06,
"loss": 6.192,
"step": 162
},
{
"epoch": 1.0866666666666667,
"grad_norm": 1.1438218355178833,
"learning_rate": 9.068759265665384e-06,
"loss": 6.0448,
"step": 163
},
{
"epoch": 1.0933333333333333,
"grad_norm": 1.0994309186935425,
"learning_rate": 8.599558442598998e-06,
"loss": 6.2818,
"step": 164
},
{
"epoch": 1.1,
"grad_norm": 1.0328632593154907,
"learning_rate": 8.141676086873572e-06,
"loss": 6.1917,
"step": 165
},
{
"epoch": 1.1066666666666667,
"grad_norm": 1.1082019805908203,
"learning_rate": 7.695237378953223e-06,
"loss": 6.0417,
"step": 166
},
{
"epoch": 1.1133333333333333,
"grad_norm": 1.2321699857711792,
"learning_rate": 7.260364370723044e-06,
"loss": 5.9083,
"step": 167
},
{
"epoch": 1.12,
"grad_norm": 1.045245885848999,
"learning_rate": 6.837175952121306e-06,
"loss": 6.1607,
"step": 168
},
{
"epoch": 1.1266666666666667,
"grad_norm": 1.0684219598770142,
"learning_rate": 6.425787818636131e-06,
"loss": 6.4247,
"step": 169
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.9988701343536377,
"learning_rate": 6.026312439675552e-06,
"loss": 6.1313,
"step": 170
},
{
"epoch": 1.1400000000000001,
"grad_norm": 1.3453062772750854,
"learning_rate": 5.6388590278194096e-06,
"loss": 6.2563,
"step": 171
},
{
"epoch": 1.1466666666666667,
"grad_norm": 1.1717990636825562,
"learning_rate": 5.263533508961827e-06,
"loss": 6.2668,
"step": 172
},
{
"epoch": 1.1533333333333333,
"grad_norm": 1.3726729154586792,
"learning_rate": 4.900438493352055e-06,
"loss": 6.2996,
"step": 173
},
{
"epoch": 1.16,
"grad_norm": 1.1512153148651123,
"learning_rate": 4.549673247541875e-06,
"loss": 6.1166,
"step": 174
},
{
"epoch": 1.1666666666666667,
"grad_norm": 1.329035997390747,
"learning_rate": 4.2113336672471245e-06,
"loss": 6.6666,
"step": 175
},
{
"epoch": 1.1733333333333333,
"grad_norm": 1.1277896165847778,
"learning_rate": 3.885512251130763e-06,
"loss": 6.3953,
"step": 176
},
{
"epoch": 1.18,
"grad_norm": 1.4285123348236084,
"learning_rate": 3.5722980755146517e-06,
"loss": 6.2737,
"step": 177
},
{
"epoch": 1.1866666666666668,
"grad_norm": 1.5813792943954468,
"learning_rate": 3.271776770026963e-06,
"loss": 6.1981,
"step": 178
},
{
"epoch": 1.1933333333333334,
"grad_norm": 1.552916169166565,
"learning_rate": 2.9840304941919415e-06,
"loss": 6.8838,
"step": 179
},
{
"epoch": 1.2,
"grad_norm": 1.4972158670425415,
"learning_rate": 2.7091379149682685e-06,
"loss": 6.9976,
"step": 180
},
{
"epoch": 1.2066666666666666,
"grad_norm": 1.6340606212615967,
"learning_rate": 2.4471741852423237e-06,
"loss": 6.8501,
"step": 181
},
{
"epoch": 1.2133333333333334,
"grad_norm": 1.8090088367462158,
"learning_rate": 2.1982109232821178e-06,
"loss": 6.7464,
"step": 182
},
{
"epoch": 1.22,
"grad_norm": 2.0729153156280518,
"learning_rate": 1.962316193157593e-06,
"loss": 6.8301,
"step": 183
},
{
"epoch": 1.2266666666666666,
"grad_norm": 1.7537096738815308,
"learning_rate": 1.7395544861325718e-06,
"loss": 6.8989,
"step": 184
},
{
"epoch": 1.2333333333333334,
"grad_norm": 2.3291068077087402,
"learning_rate": 1.5299867030334814e-06,
"loss": 7.0603,
"step": 185
},
{
"epoch": 1.24,
"grad_norm": 2.235341787338257,
"learning_rate": 1.333670137599713e-06,
"loss": 7.439,
"step": 186
},
{
"epoch": 1.2466666666666666,
"grad_norm": 2.3835337162017822,
"learning_rate": 1.1506584608200367e-06,
"loss": 7.2214,
"step": 187
},
{
"epoch": 1.2533333333333334,
"grad_norm": 1.2735402584075928,
"learning_rate": 9.810017062595322e-07,
"loss": 6.8501,
"step": 188
},
{
"epoch": 1.26,
"grad_norm": 1.0328888893127441,
"learning_rate": 8.247462563808817e-07,
"loss": 6.6104,
"step": 189
},
{
"epoch": 1.2666666666666666,
"grad_norm": 1.0581254959106445,
"learning_rate": 6.819348298638839e-07,
"loss": 6.3611,
"step": 190
},
{
"epoch": 1.2733333333333334,
"grad_norm": 1.2060351371765137,
"learning_rate": 5.526064699265753e-07,
"loss": 6.7015,
"step": 191
},
{
"epoch": 1.28,
"grad_norm": 1.0336604118347168,
"learning_rate": 4.367965336512403e-07,
"loss": 6.3214,
"step": 192
},
{
"epoch": 1.2866666666666666,
"grad_norm": 0.9532073140144348,
"learning_rate": 3.3453668231809286e-07,
"loss": 6.2786,
"step": 193
},
{
"epoch": 1.2933333333333334,
"grad_norm": 0.9868900775909424,
"learning_rate": 2.458548727494292e-07,
"loss": 6.2939,
"step": 194
},
{
"epoch": 1.3,
"grad_norm": 1.0176023244857788,
"learning_rate": 1.7077534966650766e-07,
"loss": 6.026,
"step": 195
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.9228242635726929,
"learning_rate": 1.0931863906127327e-07,
"loss": 6.3458,
"step": 196
},
{
"epoch": 1.3133333333333335,
"grad_norm": 0.9024170637130737,
"learning_rate": 6.150154258476315e-08,
"loss": 6.4783,
"step": 197
},
{
"epoch": 1.32,
"grad_norm": 1.016882061958313,
"learning_rate": 2.7337132953697554e-08,
"loss": 6.0115,
"step": 198
},
{
"epoch": 1.3266666666666667,
"grad_norm": 1.0576156377792358,
"learning_rate": 6.834750376549792e-09,
"loss": 6.1719,
"step": 199
},
{
"epoch": 1.3333333333333333,
"grad_norm": 1.141358494758606,
"learning_rate": 0.0,
"loss": 5.9455,
"step": 200
},
{
"epoch": 1.3333333333333333,
"eval_loss": 6.382301330566406,
"eval_runtime": 1.4229,
"eval_samples_per_second": 177.8,
"eval_steps_per_second": 44.977,
"step": 200
}
],
"logging_steps": 1,
"max_steps": 200,
"num_input_tokens_seen": 0,
"num_train_epochs": 2,
"save_steps": 50,
"stateful_callbacks": {
"EarlyStoppingCallback": {
"args": {
"early_stopping_patience": 5,
"early_stopping_threshold": 0.0
},
"attributes": {
"early_stopping_patience_counter": 0
}
},
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.0781835600592896e+16,
"train_batch_size": 8,
"trial_name": null,
"trial_params": null
}