kajuma's picture
Upload folder using huggingface_hub
40b7fed verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 0.05859375,
"eval_steps": 500,
"global_step": 600,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 9.765625e-05,
"grad_norm": 13.125093460083008,
"learning_rate": 1.6666666666666669e-06,
"loss": 6.0473,
"step": 1
},
{
"epoch": 0.0001953125,
"grad_norm": 13.109691619873047,
"learning_rate": 3.3333333333333337e-06,
"loss": 6.0151,
"step": 2
},
{
"epoch": 0.00029296875,
"grad_norm": 12.975897789001465,
"learning_rate": 5e-06,
"loss": 6.0374,
"step": 3
},
{
"epoch": 0.000390625,
"grad_norm": 12.861470222473145,
"learning_rate": 6.6666666666666675e-06,
"loss": 5.9534,
"step": 4
},
{
"epoch": 0.00048828125,
"grad_norm": 11.551366806030273,
"learning_rate": 8.333333333333334e-06,
"loss": 5.7805,
"step": 5
},
{
"epoch": 0.0005859375,
"grad_norm": 7.968364238739014,
"learning_rate": 1e-05,
"loss": 5.5664,
"step": 6
},
{
"epoch": 0.00068359375,
"grad_norm": 6.854646682739258,
"learning_rate": 1.1666666666666668e-05,
"loss": 5.4982,
"step": 7
},
{
"epoch": 0.00078125,
"grad_norm": 3.759798049926758,
"learning_rate": 1.3333333333333335e-05,
"loss": 5.1824,
"step": 8
},
{
"epoch": 0.00087890625,
"grad_norm": 3.48822283744812,
"learning_rate": 1.5e-05,
"loss": 5.0667,
"step": 9
},
{
"epoch": 0.0009765625,
"grad_norm": 3.1011886596679688,
"learning_rate": 1.6666666666666667e-05,
"loss": 5.0028,
"step": 10
},
{
"epoch": 0.00107421875,
"grad_norm": 2.5868849754333496,
"learning_rate": 1.8333333333333333e-05,
"loss": 4.7787,
"step": 11
},
{
"epoch": 0.001171875,
"grad_norm": 2.378497838973999,
"learning_rate": 2e-05,
"loss": 4.6855,
"step": 12
},
{
"epoch": 0.00126953125,
"grad_norm": 2.2101738452911377,
"learning_rate": 2.1666666666666667e-05,
"loss": 4.6042,
"step": 13
},
{
"epoch": 0.0013671875,
"grad_norm": 1.9938961267471313,
"learning_rate": 2.3333333333333336e-05,
"loss": 4.3843,
"step": 14
},
{
"epoch": 0.00146484375,
"grad_norm": 1.9345463514328003,
"learning_rate": 2.5e-05,
"loss": 4.2548,
"step": 15
},
{
"epoch": 0.0015625,
"grad_norm": 1.7730776071548462,
"learning_rate": 2.666666666666667e-05,
"loss": 4.1363,
"step": 16
},
{
"epoch": 0.00166015625,
"grad_norm": 1.58334481716156,
"learning_rate": 2.8333333333333332e-05,
"loss": 3.9704,
"step": 17
},
{
"epoch": 0.0017578125,
"grad_norm": 1.4827001094818115,
"learning_rate": 3e-05,
"loss": 3.81,
"step": 18
},
{
"epoch": 0.00185546875,
"grad_norm": 1.4140430688858032,
"learning_rate": 3.166666666666667e-05,
"loss": 3.7305,
"step": 19
},
{
"epoch": 0.001953125,
"grad_norm": 1.3934496641159058,
"learning_rate": 3.3333333333333335e-05,
"loss": 3.5375,
"step": 20
},
{
"epoch": 0.00205078125,
"grad_norm": 1.3384771347045898,
"learning_rate": 3.5000000000000004e-05,
"loss": 3.5217,
"step": 21
},
{
"epoch": 0.0021484375,
"grad_norm": 1.2228978872299194,
"learning_rate": 3.6666666666666666e-05,
"loss": 3.3742,
"step": 22
},
{
"epoch": 0.00224609375,
"grad_norm": 1.1775028705596924,
"learning_rate": 3.8333333333333334e-05,
"loss": 3.2626,
"step": 23
},
{
"epoch": 0.00234375,
"grad_norm": 1.0886842012405396,
"learning_rate": 4e-05,
"loss": 3.1864,
"step": 24
},
{
"epoch": 0.00244140625,
"grad_norm": 1.0981535911560059,
"learning_rate": 4.1666666666666665e-05,
"loss": 3.0962,
"step": 25
},
{
"epoch": 0.0025390625,
"grad_norm": 1.009294867515564,
"learning_rate": 4.3333333333333334e-05,
"loss": 3.0507,
"step": 26
},
{
"epoch": 0.00263671875,
"grad_norm": 0.9390103816986084,
"learning_rate": 4.4999999999999996e-05,
"loss": 2.9579,
"step": 27
},
{
"epoch": 0.002734375,
"grad_norm": 0.8647847175598145,
"learning_rate": 4.666666666666667e-05,
"loss": 2.8166,
"step": 28
},
{
"epoch": 0.00283203125,
"grad_norm": 0.8606237769126892,
"learning_rate": 4.8333333333333334e-05,
"loss": 2.7919,
"step": 29
},
{
"epoch": 0.0029296875,
"grad_norm": 0.8069576025009155,
"learning_rate": 5e-05,
"loss": 2.7426,
"step": 30
},
{
"epoch": 0.00302734375,
"grad_norm": 0.7007808685302734,
"learning_rate": 5.1666666666666664e-05,
"loss": 2.6926,
"step": 31
},
{
"epoch": 0.003125,
"grad_norm": 0.6825646162033081,
"learning_rate": 5.333333333333334e-05,
"loss": 2.6783,
"step": 32
},
{
"epoch": 0.00322265625,
"grad_norm": 0.7054751515388489,
"learning_rate": 5.5e-05,
"loss": 2.6239,
"step": 33
},
{
"epoch": 0.0033203125,
"grad_norm": 0.7101700305938721,
"learning_rate": 5.6666666666666664e-05,
"loss": 2.5993,
"step": 34
},
{
"epoch": 0.00341796875,
"grad_norm": 0.56828773021698,
"learning_rate": 5.833333333333333e-05,
"loss": 2.5258,
"step": 35
},
{
"epoch": 0.003515625,
"grad_norm": 0.5513983368873596,
"learning_rate": 6e-05,
"loss": 2.5018,
"step": 36
},
{
"epoch": 0.00361328125,
"grad_norm": 0.573391318321228,
"learning_rate": 6.166666666666667e-05,
"loss": 2.4881,
"step": 37
},
{
"epoch": 0.0037109375,
"grad_norm": 0.4520920515060425,
"learning_rate": 6.333333333333335e-05,
"loss": 2.4489,
"step": 38
},
{
"epoch": 0.00380859375,
"grad_norm": 0.43038809299468994,
"learning_rate": 6.500000000000001e-05,
"loss": 2.4387,
"step": 39
},
{
"epoch": 0.00390625,
"grad_norm": 0.4071808457374573,
"learning_rate": 6.666666666666667e-05,
"loss": 2.4261,
"step": 40
},
{
"epoch": 0.00400390625,
"grad_norm": 0.3631410300731659,
"learning_rate": 6.833333333333333e-05,
"loss": 2.3656,
"step": 41
},
{
"epoch": 0.0041015625,
"grad_norm": 0.33457818627357483,
"learning_rate": 7.000000000000001e-05,
"loss": 2.4011,
"step": 42
},
{
"epoch": 0.00419921875,
"grad_norm": 0.3582305610179901,
"learning_rate": 7.166666666666667e-05,
"loss": 2.3662,
"step": 43
},
{
"epoch": 0.004296875,
"grad_norm": 0.4090467691421509,
"learning_rate": 7.333333333333333e-05,
"loss": 2.3282,
"step": 44
},
{
"epoch": 0.00439453125,
"grad_norm": 0.34438556432724,
"learning_rate": 7.5e-05,
"loss": 2.2991,
"step": 45
},
{
"epoch": 0.0044921875,
"grad_norm": 0.29381102323532104,
"learning_rate": 7.666666666666667e-05,
"loss": 2.2506,
"step": 46
},
{
"epoch": 0.00458984375,
"grad_norm": 0.4019562304019928,
"learning_rate": 7.833333333333334e-05,
"loss": 2.2494,
"step": 47
},
{
"epoch": 0.0046875,
"grad_norm": 0.3183911144733429,
"learning_rate": 8e-05,
"loss": 2.2853,
"step": 48
},
{
"epoch": 0.00478515625,
"grad_norm": 0.33041393756866455,
"learning_rate": 8.166666666666667e-05,
"loss": 2.2251,
"step": 49
},
{
"epoch": 0.0048828125,
"grad_norm": 0.28936123847961426,
"learning_rate": 8.333333333333333e-05,
"loss": 2.2308,
"step": 50
},
{
"epoch": 0.00498046875,
"grad_norm": 0.36125779151916504,
"learning_rate": 8.5e-05,
"loss": 2.2473,
"step": 51
},
{
"epoch": 0.005078125,
"grad_norm": 0.2832348942756653,
"learning_rate": 8.666666666666667e-05,
"loss": 2.201,
"step": 52
},
{
"epoch": 0.00517578125,
"grad_norm": 0.3250133693218231,
"learning_rate": 8.833333333333333e-05,
"loss": 2.1596,
"step": 53
},
{
"epoch": 0.0052734375,
"grad_norm": 0.31502828001976013,
"learning_rate": 8.999999999999999e-05,
"loss": 2.2183,
"step": 54
},
{
"epoch": 0.00537109375,
"grad_norm": 0.33068645000457764,
"learning_rate": 9.166666666666667e-05,
"loss": 2.2254,
"step": 55
},
{
"epoch": 0.00546875,
"grad_norm": 0.30684661865234375,
"learning_rate": 9.333333333333334e-05,
"loss": 2.2572,
"step": 56
},
{
"epoch": 0.00556640625,
"grad_norm": 0.31540846824645996,
"learning_rate": 9.5e-05,
"loss": 2.1594,
"step": 57
},
{
"epoch": 0.0056640625,
"grad_norm": 0.23259752988815308,
"learning_rate": 9.666666666666667e-05,
"loss": 2.172,
"step": 58
},
{
"epoch": 0.00576171875,
"grad_norm": 0.26666638255119324,
"learning_rate": 9.833333333333333e-05,
"loss": 2.1961,
"step": 59
},
{
"epoch": 0.005859375,
"grad_norm": 0.26295527815818787,
"learning_rate": 0.0001,
"loss": 2.1811,
"step": 60
},
{
"epoch": 0.00595703125,
"grad_norm": 0.2302207201719284,
"learning_rate": 0.00010166666666666667,
"loss": 2.1431,
"step": 61
},
{
"epoch": 0.0060546875,
"grad_norm": 0.468537837266922,
"learning_rate": 0.00010333333333333333,
"loss": 2.133,
"step": 62
},
{
"epoch": 0.00615234375,
"grad_norm": 0.27946797013282776,
"learning_rate": 0.000105,
"loss": 2.1917,
"step": 63
},
{
"epoch": 0.00625,
"grad_norm": 0.26789286732673645,
"learning_rate": 0.00010666666666666668,
"loss": 2.1417,
"step": 64
},
{
"epoch": 0.00634765625,
"grad_norm": 0.22977805137634277,
"learning_rate": 0.00010833333333333334,
"loss": 2.1371,
"step": 65
},
{
"epoch": 0.0064453125,
"grad_norm": 0.2590682804584503,
"learning_rate": 0.00011,
"loss": 2.113,
"step": 66
},
{
"epoch": 0.00654296875,
"grad_norm": 0.2660805583000183,
"learning_rate": 0.00011166666666666667,
"loss": 2.1346,
"step": 67
},
{
"epoch": 0.006640625,
"grad_norm": 0.24538874626159668,
"learning_rate": 0.00011333333333333333,
"loss": 2.1078,
"step": 68
},
{
"epoch": 0.00673828125,
"grad_norm": 0.2986001968383789,
"learning_rate": 0.000115,
"loss": 2.1048,
"step": 69
},
{
"epoch": 0.0068359375,
"grad_norm": 0.30193910002708435,
"learning_rate": 0.00011666666666666667,
"loss": 2.135,
"step": 70
},
{
"epoch": 0.00693359375,
"grad_norm": 0.25153177976608276,
"learning_rate": 0.00011833333333333334,
"loss": 2.1101,
"step": 71
},
{
"epoch": 0.00703125,
"grad_norm": 0.7685809135437012,
"learning_rate": 0.00012,
"loss": 2.0833,
"step": 72
},
{
"epoch": 0.00712890625,
"grad_norm": 0.24468126893043518,
"learning_rate": 0.00012166666666666668,
"loss": 2.1409,
"step": 73
},
{
"epoch": 0.0072265625,
"grad_norm": 0.3070752024650574,
"learning_rate": 0.00012333333333333334,
"loss": 2.1402,
"step": 74
},
{
"epoch": 0.00732421875,
"grad_norm": 0.352273553609848,
"learning_rate": 0.000125,
"loss": 2.171,
"step": 75
},
{
"epoch": 0.007421875,
"grad_norm": 0.34806111454963684,
"learning_rate": 0.0001266666666666667,
"loss": 2.1155,
"step": 76
},
{
"epoch": 0.00751953125,
"grad_norm": 0.317414253950119,
"learning_rate": 0.00012833333333333333,
"loss": 2.0812,
"step": 77
},
{
"epoch": 0.0076171875,
"grad_norm": 0.3320539891719818,
"learning_rate": 0.00013000000000000002,
"loss": 2.0987,
"step": 78
},
{
"epoch": 0.00771484375,
"grad_norm": 0.3315901756286621,
"learning_rate": 0.00013166666666666665,
"loss": 2.1025,
"step": 79
},
{
"epoch": 0.0078125,
"grad_norm": 0.29021286964416504,
"learning_rate": 0.00013333333333333334,
"loss": 2.1474,
"step": 80
},
{
"epoch": 0.00791015625,
"grad_norm": 0.2593044936656952,
"learning_rate": 0.000135,
"loss": 2.0667,
"step": 81
},
{
"epoch": 0.0080078125,
"grad_norm": 0.3192054033279419,
"learning_rate": 0.00013666666666666666,
"loss": 2.0764,
"step": 82
},
{
"epoch": 0.00810546875,
"grad_norm": 0.26053664088249207,
"learning_rate": 0.00013833333333333333,
"loss": 2.0698,
"step": 83
},
{
"epoch": 0.008203125,
"grad_norm": 0.24790963530540466,
"learning_rate": 0.00014000000000000001,
"loss": 2.124,
"step": 84
},
{
"epoch": 0.00830078125,
"grad_norm": 0.2546316087245941,
"learning_rate": 0.00014166666666666668,
"loss": 2.1025,
"step": 85
},
{
"epoch": 0.0083984375,
"grad_norm": 0.22275258600711823,
"learning_rate": 0.00014333333333333334,
"loss": 2.0778,
"step": 86
},
{
"epoch": 0.00849609375,
"grad_norm": 0.22855599224567413,
"learning_rate": 0.000145,
"loss": 2.1113,
"step": 87
},
{
"epoch": 0.00859375,
"grad_norm": 0.2456902116537094,
"learning_rate": 0.00014666666666666666,
"loss": 2.1399,
"step": 88
},
{
"epoch": 0.00869140625,
"grad_norm": 0.22144420444965363,
"learning_rate": 0.00014833333333333335,
"loss": 2.0211,
"step": 89
},
{
"epoch": 0.0087890625,
"grad_norm": 0.254894495010376,
"learning_rate": 0.00015,
"loss": 2.1382,
"step": 90
},
{
"epoch": 0.00888671875,
"grad_norm": 0.2729082703590393,
"learning_rate": 0.00015166666666666668,
"loss": 2.1271,
"step": 91
},
{
"epoch": 0.008984375,
"grad_norm": 0.2564642131328583,
"learning_rate": 0.00015333333333333334,
"loss": 2.0423,
"step": 92
},
{
"epoch": 0.00908203125,
"grad_norm": 0.24927419424057007,
"learning_rate": 0.000155,
"loss": 2.0603,
"step": 93
},
{
"epoch": 0.0091796875,
"grad_norm": 0.2591923475265503,
"learning_rate": 0.0001566666666666667,
"loss": 2.0522,
"step": 94
},
{
"epoch": 0.00927734375,
"grad_norm": 0.3350547254085541,
"learning_rate": 0.00015833333333333332,
"loss": 2.1095,
"step": 95
},
{
"epoch": 0.009375,
"grad_norm": 0.30227839946746826,
"learning_rate": 0.00016,
"loss": 2.121,
"step": 96
},
{
"epoch": 0.00947265625,
"grad_norm": 0.3027198314666748,
"learning_rate": 0.00016166666666666665,
"loss": 2.0288,
"step": 97
},
{
"epoch": 0.0095703125,
"grad_norm": 0.29791951179504395,
"learning_rate": 0.00016333333333333334,
"loss": 2.0471,
"step": 98
},
{
"epoch": 0.00966796875,
"grad_norm": 0.30918803811073303,
"learning_rate": 0.000165,
"loss": 2.1036,
"step": 99
},
{
"epoch": 0.009765625,
"grad_norm": 0.2510216534137726,
"learning_rate": 0.00016666666666666666,
"loss": 2.0217,
"step": 100
},
{
"epoch": 0.00986328125,
"grad_norm": 0.288231760263443,
"learning_rate": 0.00016833333333333335,
"loss": 2.0178,
"step": 101
},
{
"epoch": 0.0099609375,
"grad_norm": 0.3326691687107086,
"learning_rate": 0.00017,
"loss": 2.0947,
"step": 102
},
{
"epoch": 0.01005859375,
"grad_norm": 0.3552946150302887,
"learning_rate": 0.00017166666666666667,
"loss": 1.9953,
"step": 103
},
{
"epoch": 0.01015625,
"grad_norm": 0.34882935881614685,
"learning_rate": 0.00017333333333333334,
"loss": 2.1223,
"step": 104
},
{
"epoch": 0.01025390625,
"grad_norm": 0.35487979650497437,
"learning_rate": 0.000175,
"loss": 2.0599,
"step": 105
},
{
"epoch": 0.0103515625,
"grad_norm": 0.33561578392982483,
"learning_rate": 0.00017666666666666666,
"loss": 2.0398,
"step": 106
},
{
"epoch": 0.01044921875,
"grad_norm": 0.27415409684181213,
"learning_rate": 0.00017833333333333335,
"loss": 2.0982,
"step": 107
},
{
"epoch": 0.010546875,
"grad_norm": 0.28592920303344727,
"learning_rate": 0.00017999999999999998,
"loss": 2.0571,
"step": 108
},
{
"epoch": 0.01064453125,
"grad_norm": 0.3228552043437958,
"learning_rate": 0.00018166666666666667,
"loss": 1.9923,
"step": 109
},
{
"epoch": 0.0107421875,
"grad_norm": 0.29005661606788635,
"learning_rate": 0.00018333333333333334,
"loss": 2.0394,
"step": 110
},
{
"epoch": 0.01083984375,
"grad_norm": 0.36677825450897217,
"learning_rate": 0.000185,
"loss": 2.0153,
"step": 111
},
{
"epoch": 0.0109375,
"grad_norm": 0.2562806308269501,
"learning_rate": 0.0001866666666666667,
"loss": 2.05,
"step": 112
},
{
"epoch": 0.01103515625,
"grad_norm": 0.2748093008995056,
"learning_rate": 0.00018833333333333332,
"loss": 2.0449,
"step": 113
},
{
"epoch": 0.0111328125,
"grad_norm": 0.3924459218978882,
"learning_rate": 0.00019,
"loss": 2.0409,
"step": 114
},
{
"epoch": 0.01123046875,
"grad_norm": 0.4368191063404083,
"learning_rate": 0.00019166666666666667,
"loss": 2.0178,
"step": 115
},
{
"epoch": 0.011328125,
"grad_norm": 0.4236035943031311,
"learning_rate": 0.00019333333333333333,
"loss": 2.0518,
"step": 116
},
{
"epoch": 0.01142578125,
"grad_norm": 0.28912851214408875,
"learning_rate": 0.00019500000000000002,
"loss": 2.0058,
"step": 117
},
{
"epoch": 0.0115234375,
"grad_norm": 0.38847798109054565,
"learning_rate": 0.00019666666666666666,
"loss": 2.0818,
"step": 118
},
{
"epoch": 0.01162109375,
"grad_norm": 0.29429811239242554,
"learning_rate": 0.00019833333333333335,
"loss": 2.004,
"step": 119
},
{
"epoch": 0.01171875,
"grad_norm": 0.2969271242618561,
"learning_rate": 0.0002,
"loss": 2.046,
"step": 120
},
{
"epoch": 0.01181640625,
"grad_norm": 0.297894150018692,
"learning_rate": 0.00020166666666666667,
"loss": 2.0204,
"step": 121
},
{
"epoch": 0.0119140625,
"grad_norm": 0.28794237971305847,
"learning_rate": 0.00020333333333333333,
"loss": 2.0663,
"step": 122
},
{
"epoch": 0.01201171875,
"grad_norm": 0.2766033411026001,
"learning_rate": 0.000205,
"loss": 2.0399,
"step": 123
},
{
"epoch": 0.012109375,
"grad_norm": 0.3516612648963928,
"learning_rate": 0.00020666666666666666,
"loss": 2.0389,
"step": 124
},
{
"epoch": 0.01220703125,
"grad_norm": 0.28204381465911865,
"learning_rate": 0.00020833333333333335,
"loss": 2.0084,
"step": 125
},
{
"epoch": 0.0123046875,
"grad_norm": 0.3306240737438202,
"learning_rate": 0.00021,
"loss": 2.013,
"step": 126
},
{
"epoch": 0.01240234375,
"grad_norm": 0.3221111595630646,
"learning_rate": 0.00021166666666666667,
"loss": 2.0312,
"step": 127
},
{
"epoch": 0.0125,
"grad_norm": 0.2742249071598053,
"learning_rate": 0.00021333333333333336,
"loss": 2.0375,
"step": 128
},
{
"epoch": 0.01259765625,
"grad_norm": 0.2785228490829468,
"learning_rate": 0.000215,
"loss": 2.0449,
"step": 129
},
{
"epoch": 0.0126953125,
"grad_norm": 0.2666397988796234,
"learning_rate": 0.00021666666666666668,
"loss": 2.0355,
"step": 130
},
{
"epoch": 0.01279296875,
"grad_norm": 0.22522135078907013,
"learning_rate": 0.00021833333333333332,
"loss": 1.9693,
"step": 131
},
{
"epoch": 0.012890625,
"grad_norm": 0.2724483013153076,
"learning_rate": 0.00022,
"loss": 2.0671,
"step": 132
},
{
"epoch": 0.01298828125,
"grad_norm": 0.2655040919780731,
"learning_rate": 0.00022166666666666667,
"loss": 1.9805,
"step": 133
},
{
"epoch": 0.0130859375,
"grad_norm": 0.3194504678249359,
"learning_rate": 0.00022333333333333333,
"loss": 2.067,
"step": 134
},
{
"epoch": 0.01318359375,
"grad_norm": 0.25511813163757324,
"learning_rate": 0.00022500000000000002,
"loss": 2.0141,
"step": 135
},
{
"epoch": 0.01328125,
"grad_norm": 0.3995087444782257,
"learning_rate": 0.00022666666666666666,
"loss": 2.0278,
"step": 136
},
{
"epoch": 0.01337890625,
"grad_norm": 0.2623380422592163,
"learning_rate": 0.00022833333333333334,
"loss": 1.9751,
"step": 137
},
{
"epoch": 0.0134765625,
"grad_norm": 0.23814889788627625,
"learning_rate": 0.00023,
"loss": 1.969,
"step": 138
},
{
"epoch": 0.01357421875,
"grad_norm": 0.23566491901874542,
"learning_rate": 0.00023166666666666667,
"loss": 2.0135,
"step": 139
},
{
"epoch": 0.013671875,
"grad_norm": 0.2437373697757721,
"learning_rate": 0.00023333333333333333,
"loss": 2.0044,
"step": 140
},
{
"epoch": 0.01376953125,
"grad_norm": 0.2861543595790863,
"learning_rate": 0.000235,
"loss": 2.0378,
"step": 141
},
{
"epoch": 0.0138671875,
"grad_norm": 0.318050354719162,
"learning_rate": 0.00023666666666666668,
"loss": 2.0857,
"step": 142
},
{
"epoch": 0.01396484375,
"grad_norm": 0.39669227600097656,
"learning_rate": 0.00023833333333333334,
"loss": 2.0535,
"step": 143
},
{
"epoch": 0.0140625,
"grad_norm": 0.4359401762485504,
"learning_rate": 0.00024,
"loss": 2.0432,
"step": 144
},
{
"epoch": 0.01416015625,
"grad_norm": 0.4532039165496826,
"learning_rate": 0.00024166666666666667,
"loss": 1.9909,
"step": 145
},
{
"epoch": 0.0142578125,
"grad_norm": 0.4570695161819458,
"learning_rate": 0.00024333333333333336,
"loss": 2.0123,
"step": 146
},
{
"epoch": 0.01435546875,
"grad_norm": 0.36623403429985046,
"learning_rate": 0.000245,
"loss": 2.0179,
"step": 147
},
{
"epoch": 0.014453125,
"grad_norm": 0.3069714307785034,
"learning_rate": 0.0002466666666666667,
"loss": 2.0014,
"step": 148
},
{
"epoch": 0.01455078125,
"grad_norm": 0.3980304002761841,
"learning_rate": 0.0002483333333333333,
"loss": 2.0489,
"step": 149
},
{
"epoch": 0.0146484375,
"grad_norm": 0.31907564401626587,
"learning_rate": 0.00025,
"loss": 2.013,
"step": 150
},
{
"epoch": 0.01474609375,
"grad_norm": 0.2952549159526825,
"learning_rate": 0.00025166666666666664,
"loss": 2.0709,
"step": 151
},
{
"epoch": 0.01484375,
"grad_norm": 0.29451197385787964,
"learning_rate": 0.0002533333333333334,
"loss": 1.9613,
"step": 152
},
{
"epoch": 0.01494140625,
"grad_norm": 0.2893507778644562,
"learning_rate": 0.000255,
"loss": 2.0048,
"step": 153
},
{
"epoch": 0.0150390625,
"grad_norm": 0.24850639700889587,
"learning_rate": 0.00025666666666666665,
"loss": 2.0198,
"step": 154
},
{
"epoch": 0.01513671875,
"grad_norm": 0.24297639727592468,
"learning_rate": 0.00025833333333333334,
"loss": 2.0561,
"step": 155
},
{
"epoch": 0.015234375,
"grad_norm": 0.2777438461780548,
"learning_rate": 0.00026000000000000003,
"loss": 2.0206,
"step": 156
},
{
"epoch": 0.01533203125,
"grad_norm": 0.28714093565940857,
"learning_rate": 0.00026166666666666667,
"loss": 1.9891,
"step": 157
},
{
"epoch": 0.0154296875,
"grad_norm": 0.25796255469322205,
"learning_rate": 0.0002633333333333333,
"loss": 2.0369,
"step": 158
},
{
"epoch": 0.01552734375,
"grad_norm": 0.2391008883714676,
"learning_rate": 0.00026500000000000004,
"loss": 2.0015,
"step": 159
},
{
"epoch": 0.015625,
"grad_norm": 0.3203892409801483,
"learning_rate": 0.0002666666666666667,
"loss": 2.0213,
"step": 160
},
{
"epoch": 0.01572265625,
"grad_norm": 0.3396870791912079,
"learning_rate": 0.0002683333333333333,
"loss": 2.0333,
"step": 161
},
{
"epoch": 0.0158203125,
"grad_norm": 0.315060555934906,
"learning_rate": 0.00027,
"loss": 2.0195,
"step": 162
},
{
"epoch": 0.01591796875,
"grad_norm": 0.2672436535358429,
"learning_rate": 0.0002716666666666667,
"loss": 1.9946,
"step": 163
},
{
"epoch": 0.016015625,
"grad_norm": 0.2996402382850647,
"learning_rate": 0.00027333333333333333,
"loss": 2.0112,
"step": 164
},
{
"epoch": 0.01611328125,
"grad_norm": 0.2894189953804016,
"learning_rate": 0.000275,
"loss": 2.0157,
"step": 165
},
{
"epoch": 0.0162109375,
"grad_norm": 0.26241254806518555,
"learning_rate": 0.00027666666666666665,
"loss": 2.0177,
"step": 166
},
{
"epoch": 0.01630859375,
"grad_norm": 0.22900305688381195,
"learning_rate": 0.00027833333333333334,
"loss": 1.9834,
"step": 167
},
{
"epoch": 0.01640625,
"grad_norm": 0.2373427301645279,
"learning_rate": 0.00028000000000000003,
"loss": 1.9792,
"step": 168
},
{
"epoch": 0.01650390625,
"grad_norm": 0.2663004696369171,
"learning_rate": 0.00028166666666666666,
"loss": 2.0203,
"step": 169
},
{
"epoch": 0.0166015625,
"grad_norm": 0.31653544306755066,
"learning_rate": 0.00028333333333333335,
"loss": 2.0216,
"step": 170
},
{
"epoch": 0.01669921875,
"grad_norm": 0.3077234923839569,
"learning_rate": 0.000285,
"loss": 2.0361,
"step": 171
},
{
"epoch": 0.016796875,
"grad_norm": 0.25555703043937683,
"learning_rate": 0.0002866666666666667,
"loss": 2.0102,
"step": 172
},
{
"epoch": 0.01689453125,
"grad_norm": 0.29817435145378113,
"learning_rate": 0.0002883333333333333,
"loss": 1.972,
"step": 173
},
{
"epoch": 0.0169921875,
"grad_norm": 0.3075692355632782,
"learning_rate": 0.00029,
"loss": 2.0195,
"step": 174
},
{
"epoch": 0.01708984375,
"grad_norm": 0.29917964339256287,
"learning_rate": 0.0002916666666666667,
"loss": 1.9972,
"step": 175
},
{
"epoch": 0.0171875,
"grad_norm": 0.32018229365348816,
"learning_rate": 0.0002933333333333333,
"loss": 1.9895,
"step": 176
},
{
"epoch": 0.01728515625,
"grad_norm": 0.2907097339630127,
"learning_rate": 0.000295,
"loss": 1.9777,
"step": 177
},
{
"epoch": 0.0173828125,
"grad_norm": 0.22390642762184143,
"learning_rate": 0.0002966666666666667,
"loss": 1.9961,
"step": 178
},
{
"epoch": 0.01748046875,
"grad_norm": 0.25350186228752136,
"learning_rate": 0.00029833333333333334,
"loss": 1.9875,
"step": 179
},
{
"epoch": 0.017578125,
"grad_norm": 0.22856706380844116,
"learning_rate": 0.0003,
"loss": 2.0169,
"step": 180
},
{
"epoch": 0.01767578125,
"grad_norm": 0.2288493812084198,
"learning_rate": 0.0003016666666666667,
"loss": 2.0238,
"step": 181
},
{
"epoch": 0.0177734375,
"grad_norm": 0.27326855063438416,
"learning_rate": 0.00030333333333333335,
"loss": 2.0134,
"step": 182
},
{
"epoch": 0.01787109375,
"grad_norm": 0.2447524517774582,
"learning_rate": 0.000305,
"loss": 1.9852,
"step": 183
},
{
"epoch": 0.01796875,
"grad_norm": 0.4363366663455963,
"learning_rate": 0.0003066666666666667,
"loss": 1.9921,
"step": 184
},
{
"epoch": 0.01806640625,
"grad_norm": 0.4569666385650635,
"learning_rate": 0.00030833333333333337,
"loss": 1.9997,
"step": 185
},
{
"epoch": 0.0181640625,
"grad_norm": 0.43348655104637146,
"learning_rate": 0.00031,
"loss": 2.0584,
"step": 186
},
{
"epoch": 0.01826171875,
"grad_norm": 0.3844921588897705,
"learning_rate": 0.00031166666666666663,
"loss": 2.0035,
"step": 187
},
{
"epoch": 0.018359375,
"grad_norm": 0.3427641987800598,
"learning_rate": 0.0003133333333333334,
"loss": 1.9536,
"step": 188
},
{
"epoch": 0.01845703125,
"grad_norm": 0.33557865023612976,
"learning_rate": 0.000315,
"loss": 1.972,
"step": 189
},
{
"epoch": 0.0185546875,
"grad_norm": 0.4006612300872803,
"learning_rate": 0.00031666666666666665,
"loss": 2.0652,
"step": 190
},
{
"epoch": 0.01865234375,
"grad_norm": 0.3158099055290222,
"learning_rate": 0.00031833333333333334,
"loss": 2.0516,
"step": 191
},
{
"epoch": 0.01875,
"grad_norm": 0.3799190819263458,
"learning_rate": 0.00032,
"loss": 2.011,
"step": 192
},
{
"epoch": 0.01884765625,
"grad_norm": 0.2948876619338989,
"learning_rate": 0.00032166666666666666,
"loss": 2.0109,
"step": 193
},
{
"epoch": 0.0189453125,
"grad_norm": 0.24561335146427155,
"learning_rate": 0.0003233333333333333,
"loss": 2.0264,
"step": 194
},
{
"epoch": 0.01904296875,
"grad_norm": 0.24896866083145142,
"learning_rate": 0.00032500000000000004,
"loss": 1.9726,
"step": 195
},
{
"epoch": 0.019140625,
"grad_norm": 0.26887547969818115,
"learning_rate": 0.0003266666666666667,
"loss": 2.0036,
"step": 196
},
{
"epoch": 0.01923828125,
"grad_norm": 0.3186735212802887,
"learning_rate": 0.0003283333333333333,
"loss": 2.0174,
"step": 197
},
{
"epoch": 0.0193359375,
"grad_norm": 0.3317165672779083,
"learning_rate": 0.00033,
"loss": 2.0047,
"step": 198
},
{
"epoch": 0.01943359375,
"grad_norm": 0.3068574070930481,
"learning_rate": 0.0003316666666666667,
"loss": 2.0032,
"step": 199
},
{
"epoch": 0.01953125,
"grad_norm": 0.29292526841163635,
"learning_rate": 0.0003333333333333333,
"loss": 2.0533,
"step": 200
},
{
"epoch": 0.01962890625,
"grad_norm": 0.2519834041595459,
"learning_rate": 0.000335,
"loss": 2.0113,
"step": 201
},
{
"epoch": 0.0197265625,
"grad_norm": 0.25766584277153015,
"learning_rate": 0.0003366666666666667,
"loss": 2.0278,
"step": 202
},
{
"epoch": 0.01982421875,
"grad_norm": 0.2704983055591583,
"learning_rate": 0.00033833333333333334,
"loss": 1.9725,
"step": 203
},
{
"epoch": 0.019921875,
"grad_norm": 0.2882053256034851,
"learning_rate": 0.00034,
"loss": 2.0706,
"step": 204
},
{
"epoch": 0.02001953125,
"grad_norm": 0.34524375200271606,
"learning_rate": 0.00034166666666666666,
"loss": 1.9868,
"step": 205
},
{
"epoch": 0.0201171875,
"grad_norm": 0.3718552887439728,
"learning_rate": 0.00034333333333333335,
"loss": 1.9596,
"step": 206
},
{
"epoch": 0.02021484375,
"grad_norm": 0.2747247815132141,
"learning_rate": 0.000345,
"loss": 2.0125,
"step": 207
},
{
"epoch": 0.0203125,
"grad_norm": 0.3062858283519745,
"learning_rate": 0.00034666666666666667,
"loss": 2.0224,
"step": 208
},
{
"epoch": 0.02041015625,
"grad_norm": 0.32505863904953003,
"learning_rate": 0.00034833333333333336,
"loss": 2.0376,
"step": 209
},
{
"epoch": 0.0205078125,
"grad_norm": 0.35048386454582214,
"learning_rate": 0.00035,
"loss": 2.0268,
"step": 210
},
{
"epoch": 0.02060546875,
"grad_norm": 0.31204426288604736,
"learning_rate": 0.0003516666666666667,
"loss": 2.0198,
"step": 211
},
{
"epoch": 0.020703125,
"grad_norm": 0.24253524839878082,
"learning_rate": 0.0003533333333333333,
"loss": 2.028,
"step": 212
},
{
"epoch": 0.02080078125,
"grad_norm": 0.286915123462677,
"learning_rate": 0.000355,
"loss": 1.9358,
"step": 213
},
{
"epoch": 0.0208984375,
"grad_norm": 0.2800680994987488,
"learning_rate": 0.0003566666666666667,
"loss": 1.9905,
"step": 214
},
{
"epoch": 0.02099609375,
"grad_norm": 0.2718358635902405,
"learning_rate": 0.00035833333333333333,
"loss": 1.9902,
"step": 215
},
{
"epoch": 0.02109375,
"grad_norm": 0.28583604097366333,
"learning_rate": 0.00035999999999999997,
"loss": 1.991,
"step": 216
},
{
"epoch": 0.02119140625,
"grad_norm": 0.2911478281021118,
"learning_rate": 0.0003616666666666667,
"loss": 1.973,
"step": 217
},
{
"epoch": 0.0212890625,
"grad_norm": 0.3601188361644745,
"learning_rate": 0.00036333333333333335,
"loss": 1.9727,
"step": 218
},
{
"epoch": 0.02138671875,
"grad_norm": 0.2888337969779968,
"learning_rate": 0.000365,
"loss": 1.988,
"step": 219
},
{
"epoch": 0.021484375,
"grad_norm": 0.25628700852394104,
"learning_rate": 0.00036666666666666667,
"loss": 1.9984,
"step": 220
},
{
"epoch": 0.02158203125,
"grad_norm": 0.2637641429901123,
"learning_rate": 0.00036833333333333336,
"loss": 2.0229,
"step": 221
},
{
"epoch": 0.0216796875,
"grad_norm": 0.23845899105072021,
"learning_rate": 0.00037,
"loss": 1.9985,
"step": 222
},
{
"epoch": 0.02177734375,
"grad_norm": 0.28519535064697266,
"learning_rate": 0.00037166666666666663,
"loss": 2.0061,
"step": 223
},
{
"epoch": 0.021875,
"grad_norm": 0.31845173239707947,
"learning_rate": 0.0003733333333333334,
"loss": 2.0081,
"step": 224
},
{
"epoch": 0.02197265625,
"grad_norm": 0.3725838363170624,
"learning_rate": 0.000375,
"loss": 2.0032,
"step": 225
},
{
"epoch": 0.0220703125,
"grad_norm": 0.49783870577812195,
"learning_rate": 0.00037666666666666664,
"loss": 2.0404,
"step": 226
},
{
"epoch": 0.02216796875,
"grad_norm": 0.5059479475021362,
"learning_rate": 0.0003783333333333334,
"loss": 2.0498,
"step": 227
},
{
"epoch": 0.022265625,
"grad_norm": 0.461291640996933,
"learning_rate": 0.00038,
"loss": 2.0078,
"step": 228
},
{
"epoch": 0.02236328125,
"grad_norm": 0.3970203399658203,
"learning_rate": 0.00038166666666666666,
"loss": 1.9966,
"step": 229
},
{
"epoch": 0.0224609375,
"grad_norm": 0.3155679404735565,
"learning_rate": 0.00038333333333333334,
"loss": 2.0263,
"step": 230
},
{
"epoch": 0.02255859375,
"grad_norm": 0.32979920506477356,
"learning_rate": 0.00038500000000000003,
"loss": 1.9967,
"step": 231
},
{
"epoch": 0.02265625,
"grad_norm": 0.27470117807388306,
"learning_rate": 0.00038666666666666667,
"loss": 2.0461,
"step": 232
},
{
"epoch": 0.02275390625,
"grad_norm": 0.2981088161468506,
"learning_rate": 0.0003883333333333333,
"loss": 1.9944,
"step": 233
},
{
"epoch": 0.0228515625,
"grad_norm": 0.3496599495410919,
"learning_rate": 0.00039000000000000005,
"loss": 1.9907,
"step": 234
},
{
"epoch": 0.02294921875,
"grad_norm": 0.3318106532096863,
"learning_rate": 0.0003916666666666667,
"loss": 2.0576,
"step": 235
},
{
"epoch": 0.023046875,
"grad_norm": 0.29498377442359924,
"learning_rate": 0.0003933333333333333,
"loss": 2.0242,
"step": 236
},
{
"epoch": 0.02314453125,
"grad_norm": 0.2970214784145355,
"learning_rate": 0.000395,
"loss": 2.0087,
"step": 237
},
{
"epoch": 0.0232421875,
"grad_norm": 0.37431418895721436,
"learning_rate": 0.0003966666666666667,
"loss": 2.0657,
"step": 238
},
{
"epoch": 0.02333984375,
"grad_norm": 0.30095174908638,
"learning_rate": 0.00039833333333333333,
"loss": 2.0217,
"step": 239
},
{
"epoch": 0.0234375,
"grad_norm": 0.24695053696632385,
"learning_rate": 0.0004,
"loss": 1.9833,
"step": 240
},
{
"epoch": 0.02353515625,
"grad_norm": 0.2923540771007538,
"learning_rate": 0.00040166666666666665,
"loss": 2.0272,
"step": 241
},
{
"epoch": 0.0236328125,
"grad_norm": 0.2788209915161133,
"learning_rate": 0.00040333333333333334,
"loss": 2.0104,
"step": 242
},
{
"epoch": 0.02373046875,
"grad_norm": 0.2529614567756653,
"learning_rate": 0.00040500000000000003,
"loss": 2.003,
"step": 243
},
{
"epoch": 0.023828125,
"grad_norm": 0.2551966905593872,
"learning_rate": 0.00040666666666666667,
"loss": 2.001,
"step": 244
},
{
"epoch": 0.02392578125,
"grad_norm": 0.2613292634487152,
"learning_rate": 0.00040833333333333336,
"loss": 1.9822,
"step": 245
},
{
"epoch": 0.0240234375,
"grad_norm": 0.3060430884361267,
"learning_rate": 0.00041,
"loss": 2.0024,
"step": 246
},
{
"epoch": 0.02412109375,
"grad_norm": 0.33755916357040405,
"learning_rate": 0.0004116666666666667,
"loss": 2.0023,
"step": 247
},
{
"epoch": 0.02421875,
"grad_norm": 0.33021774888038635,
"learning_rate": 0.0004133333333333333,
"loss": 1.9086,
"step": 248
},
{
"epoch": 0.02431640625,
"grad_norm": 0.26662060618400574,
"learning_rate": 0.000415,
"loss": 2.009,
"step": 249
},
{
"epoch": 0.0244140625,
"grad_norm": 0.27698251605033875,
"learning_rate": 0.0004166666666666667,
"loss": 2.0183,
"step": 250
},
{
"epoch": 0.02451171875,
"grad_norm": 0.2582184970378876,
"learning_rate": 0.00041833333333333333,
"loss": 1.9932,
"step": 251
},
{
"epoch": 0.024609375,
"grad_norm": 0.28684699535369873,
"learning_rate": 0.00042,
"loss": 2.0021,
"step": 252
},
{
"epoch": 0.02470703125,
"grad_norm": 0.33535540103912354,
"learning_rate": 0.0004216666666666667,
"loss": 2.0387,
"step": 253
},
{
"epoch": 0.0248046875,
"grad_norm": 0.3330588638782501,
"learning_rate": 0.00042333333333333334,
"loss": 1.9776,
"step": 254
},
{
"epoch": 0.02490234375,
"grad_norm": 0.27919256687164307,
"learning_rate": 0.000425,
"loss": 2.0111,
"step": 255
},
{
"epoch": 0.025,
"grad_norm": 0.25296416878700256,
"learning_rate": 0.0004266666666666667,
"loss": 1.9755,
"step": 256
},
{
"epoch": 0.02509765625,
"grad_norm": 0.31288138031959534,
"learning_rate": 0.00042833333333333335,
"loss": 2.032,
"step": 257
},
{
"epoch": 0.0251953125,
"grad_norm": 0.3360923230648041,
"learning_rate": 0.00043,
"loss": 2.0837,
"step": 258
},
{
"epoch": 0.02529296875,
"grad_norm": 0.36317816376686096,
"learning_rate": 0.0004316666666666667,
"loss": 1.9696,
"step": 259
},
{
"epoch": 0.025390625,
"grad_norm": 0.366953581571579,
"learning_rate": 0.00043333333333333337,
"loss": 2.031,
"step": 260
},
{
"epoch": 0.02548828125,
"grad_norm": 0.34289368987083435,
"learning_rate": 0.000435,
"loss": 1.9968,
"step": 261
},
{
"epoch": 0.0255859375,
"grad_norm": 0.35170793533325195,
"learning_rate": 0.00043666666666666664,
"loss": 1.9963,
"step": 262
},
{
"epoch": 0.02568359375,
"grad_norm": 0.28625521063804626,
"learning_rate": 0.0004383333333333334,
"loss": 1.9932,
"step": 263
},
{
"epoch": 0.02578125,
"grad_norm": 0.2861610949039459,
"learning_rate": 0.00044,
"loss": 2.0297,
"step": 264
},
{
"epoch": 0.02587890625,
"grad_norm": 0.30467647314071655,
"learning_rate": 0.00044166666666666665,
"loss": 1.992,
"step": 265
},
{
"epoch": 0.0259765625,
"grad_norm": 0.31711357831954956,
"learning_rate": 0.00044333333333333334,
"loss": 2.0135,
"step": 266
},
{
"epoch": 0.02607421875,
"grad_norm": 0.341530978679657,
"learning_rate": 0.00044500000000000003,
"loss": 1.983,
"step": 267
},
{
"epoch": 0.026171875,
"grad_norm": 0.373901903629303,
"learning_rate": 0.00044666666666666666,
"loss": 2.0048,
"step": 268
},
{
"epoch": 0.02626953125,
"grad_norm": 0.3105134665966034,
"learning_rate": 0.0004483333333333333,
"loss": 2.0368,
"step": 269
},
{
"epoch": 0.0263671875,
"grad_norm": 0.29363134503364563,
"learning_rate": 0.00045000000000000004,
"loss": 1.978,
"step": 270
},
{
"epoch": 0.02646484375,
"grad_norm": 0.3060167133808136,
"learning_rate": 0.0004516666666666667,
"loss": 1.9479,
"step": 271
},
{
"epoch": 0.0265625,
"grad_norm": 0.30803290009498596,
"learning_rate": 0.0004533333333333333,
"loss": 1.9662,
"step": 272
},
{
"epoch": 0.02666015625,
"grad_norm": 0.3324045240879059,
"learning_rate": 0.000455,
"loss": 2.0299,
"step": 273
},
{
"epoch": 0.0267578125,
"grad_norm": 0.39051148295402527,
"learning_rate": 0.0004566666666666667,
"loss": 1.9856,
"step": 274
},
{
"epoch": 0.02685546875,
"grad_norm": 0.4288715124130249,
"learning_rate": 0.0004583333333333333,
"loss": 2.0264,
"step": 275
},
{
"epoch": 0.026953125,
"grad_norm": 0.34478962421417236,
"learning_rate": 0.00046,
"loss": 1.9824,
"step": 276
},
{
"epoch": 0.02705078125,
"grad_norm": 0.2766290009021759,
"learning_rate": 0.0004616666666666667,
"loss": 2.0066,
"step": 277
},
{
"epoch": 0.0271484375,
"grad_norm": 0.2508682608604431,
"learning_rate": 0.00046333333333333334,
"loss": 1.9663,
"step": 278
},
{
"epoch": 0.02724609375,
"grad_norm": 0.26924827694892883,
"learning_rate": 0.000465,
"loss": 1.9903,
"step": 279
},
{
"epoch": 0.02734375,
"grad_norm": 0.27668496966362,
"learning_rate": 0.00046666666666666666,
"loss": 2.0097,
"step": 280
},
{
"epoch": 0.02744140625,
"grad_norm": 0.25026220083236694,
"learning_rate": 0.00046833333333333335,
"loss": 2.0583,
"step": 281
},
{
"epoch": 0.0275390625,
"grad_norm": 0.2158055454492569,
"learning_rate": 0.00047,
"loss": 2.0137,
"step": 282
},
{
"epoch": 0.02763671875,
"grad_norm": 0.22540244460105896,
"learning_rate": 0.0004716666666666667,
"loss": 1.994,
"step": 283
},
{
"epoch": 0.027734375,
"grad_norm": 0.26405519247055054,
"learning_rate": 0.00047333333333333336,
"loss": 2.0221,
"step": 284
},
{
"epoch": 0.02783203125,
"grad_norm": 0.2979099452495575,
"learning_rate": 0.000475,
"loss": 2.0047,
"step": 285
},
{
"epoch": 0.0279296875,
"grad_norm": 0.34131935238838196,
"learning_rate": 0.0004766666666666667,
"loss": 1.9907,
"step": 286
},
{
"epoch": 0.02802734375,
"grad_norm": 0.37178686261177063,
"learning_rate": 0.0004783333333333333,
"loss": 1.9806,
"step": 287
},
{
"epoch": 0.028125,
"grad_norm": 0.36835598945617676,
"learning_rate": 0.00048,
"loss": 2.0134,
"step": 288
},
{
"epoch": 0.02822265625,
"grad_norm": 0.29690125584602356,
"learning_rate": 0.0004816666666666667,
"loss": 2.0261,
"step": 289
},
{
"epoch": 0.0283203125,
"grad_norm": 0.2690771818161011,
"learning_rate": 0.00048333333333333334,
"loss": 1.9718,
"step": 290
},
{
"epoch": 0.02841796875,
"grad_norm": 0.3377201557159424,
"learning_rate": 0.00048499999999999997,
"loss": 1.99,
"step": 291
},
{
"epoch": 0.028515625,
"grad_norm": 0.34973010420799255,
"learning_rate": 0.0004866666666666667,
"loss": 1.9721,
"step": 292
},
{
"epoch": 0.02861328125,
"grad_norm": 0.3172457218170166,
"learning_rate": 0.0004883333333333333,
"loss": 1.9928,
"step": 293
},
{
"epoch": 0.0287109375,
"grad_norm": 0.34357598423957825,
"learning_rate": 0.00049,
"loss": 1.9995,
"step": 294
},
{
"epoch": 0.02880859375,
"grad_norm": 0.3824540376663208,
"learning_rate": 0.0004916666666666666,
"loss": 1.9772,
"step": 295
},
{
"epoch": 0.02890625,
"grad_norm": 0.3704535663127899,
"learning_rate": 0.0004933333333333334,
"loss": 1.9829,
"step": 296
},
{
"epoch": 0.02900390625,
"grad_norm": 0.2571757733821869,
"learning_rate": 0.000495,
"loss": 1.9966,
"step": 297
},
{
"epoch": 0.0291015625,
"grad_norm": 0.3970927894115448,
"learning_rate": 0.0004966666666666666,
"loss": 1.9841,
"step": 298
},
{
"epoch": 0.02919921875,
"grad_norm": 0.3420144319534302,
"learning_rate": 0.0004983333333333334,
"loss": 1.9747,
"step": 299
},
{
"epoch": 0.029296875,
"grad_norm": 0.30147823691368103,
"learning_rate": 0.0005,
"loss": 1.9999,
"step": 300
},
{
"epoch": 0.02939453125,
"grad_norm": 0.33727970719337463,
"learning_rate": 0.0004999999887622467,
"loss": 2.0084,
"step": 301
},
{
"epoch": 0.0294921875,
"grad_norm": 0.29407384991645813,
"learning_rate": 0.0004999999550489878,
"loss": 2.0144,
"step": 302
},
{
"epoch": 0.02958984375,
"grad_norm": 0.3489755094051361,
"learning_rate": 0.0004999998988602267,
"loss": 2.0058,
"step": 303
},
{
"epoch": 0.0296875,
"grad_norm": 0.3327770233154297,
"learning_rate": 0.0004999998201959691,
"loss": 2.0166,
"step": 304
},
{
"epoch": 0.02978515625,
"grad_norm": 0.2923370599746704,
"learning_rate": 0.0004999997190562227,
"loss": 2.0148,
"step": 305
},
{
"epoch": 0.0298828125,
"grad_norm": 0.31616437435150146,
"learning_rate": 0.0004999995954409976,
"loss": 1.9772,
"step": 306
},
{
"epoch": 0.02998046875,
"grad_norm": 0.22982288897037506,
"learning_rate": 0.0004999994493503064,
"loss": 2.0584,
"step": 307
},
{
"epoch": 0.030078125,
"grad_norm": 0.2886744737625122,
"learning_rate": 0.0004999992807841634,
"loss": 2.0114,
"step": 308
},
{
"epoch": 0.03017578125,
"grad_norm": 0.3027271032333374,
"learning_rate": 0.0004999990897425856,
"loss": 2.011,
"step": 309
},
{
"epoch": 0.0302734375,
"grad_norm": 0.3191162645816803,
"learning_rate": 0.0004999988762255922,
"loss": 1.9962,
"step": 310
},
{
"epoch": 0.03037109375,
"grad_norm": 0.34986981749534607,
"learning_rate": 0.0004999986402332042,
"loss": 1.9612,
"step": 311
},
{
"epoch": 0.03046875,
"grad_norm": 0.36431390047073364,
"learning_rate": 0.0004999983817654454,
"loss": 2.045,
"step": 312
},
{
"epoch": 0.03056640625,
"grad_norm": 0.4198042154312134,
"learning_rate": 0.0004999981008223416,
"loss": 2.0132,
"step": 313
},
{
"epoch": 0.0306640625,
"grad_norm": 0.43374890089035034,
"learning_rate": 0.0004999977974039207,
"loss": 2.0578,
"step": 314
},
{
"epoch": 0.03076171875,
"grad_norm": 0.3654812276363373,
"learning_rate": 0.0004999974715102132,
"loss": 1.9721,
"step": 315
},
{
"epoch": 0.030859375,
"grad_norm": 0.29420921206474304,
"learning_rate": 0.0004999971231412517,
"loss": 2.0296,
"step": 316
},
{
"epoch": 0.03095703125,
"grad_norm": 0.31979072093963623,
"learning_rate": 0.0004999967522970708,
"loss": 1.9623,
"step": 317
},
{
"epoch": 0.0310546875,
"grad_norm": 0.3570129871368408,
"learning_rate": 0.0004999963589777076,
"loss": 1.9966,
"step": 318
},
{
"epoch": 0.03115234375,
"grad_norm": 0.29743143916130066,
"learning_rate": 0.0004999959431832016,
"loss": 1.9535,
"step": 319
},
{
"epoch": 0.03125,
"grad_norm": 0.23641493916511536,
"learning_rate": 0.000499995504913594,
"loss": 2.0304,
"step": 320
},
{
"epoch": 0.03134765625,
"grad_norm": 0.3556622564792633,
"learning_rate": 0.0004999950441689288,
"loss": 1.971,
"step": 321
},
{
"epoch": 0.0314453125,
"grad_norm": 0.323939710855484,
"learning_rate": 0.0004999945609492519,
"loss": 2.0153,
"step": 322
},
{
"epoch": 0.03154296875,
"grad_norm": 0.22797244787216187,
"learning_rate": 0.0004999940552546118,
"loss": 1.9807,
"step": 323
},
{
"epoch": 0.031640625,
"grad_norm": 0.2641647458076477,
"learning_rate": 0.0004999935270850587,
"loss": 1.9988,
"step": 324
},
{
"epoch": 0.03173828125,
"grad_norm": 0.25289344787597656,
"learning_rate": 0.0004999929764406455,
"loss": 1.9748,
"step": 325
},
{
"epoch": 0.0318359375,
"grad_norm": 0.2377796769142151,
"learning_rate": 0.0004999924033214274,
"loss": 1.9983,
"step": 326
},
{
"epoch": 0.03193359375,
"grad_norm": 0.2711915671825409,
"learning_rate": 0.0004999918077274612,
"loss": 1.9643,
"step": 327
},
{
"epoch": 0.03203125,
"grad_norm": 0.2866462767124176,
"learning_rate": 0.0004999911896588068,
"loss": 2.0196,
"step": 328
},
{
"epoch": 0.03212890625,
"grad_norm": 0.25075578689575195,
"learning_rate": 0.0004999905491155257,
"loss": 2.0426,
"step": 329
},
{
"epoch": 0.0322265625,
"grad_norm": 0.266648530960083,
"learning_rate": 0.000499989886097682,
"loss": 2.0318,
"step": 330
},
{
"epoch": 0.03232421875,
"grad_norm": 0.22494247555732727,
"learning_rate": 0.0004999892006053421,
"loss": 1.9839,
"step": 331
},
{
"epoch": 0.032421875,
"grad_norm": 0.3179854452610016,
"learning_rate": 0.0004999884926385741,
"loss": 1.9981,
"step": 332
},
{
"epoch": 0.03251953125,
"grad_norm": 0.2754990756511688,
"learning_rate": 0.000499987762197449,
"loss": 1.9879,
"step": 333
},
{
"epoch": 0.0326171875,
"grad_norm": 0.2669137418270111,
"learning_rate": 0.0004999870092820395,
"loss": 2.0083,
"step": 334
},
{
"epoch": 0.03271484375,
"grad_norm": 0.31376007199287415,
"learning_rate": 0.0004999862338924212,
"loss": 2.0166,
"step": 335
},
{
"epoch": 0.0328125,
"grad_norm": 0.32645899057388306,
"learning_rate": 0.0004999854360286712,
"loss": 2.0019,
"step": 336
},
{
"epoch": 0.03291015625,
"grad_norm": 0.3550071120262146,
"learning_rate": 0.0004999846156908692,
"loss": 1.9744,
"step": 337
},
{
"epoch": 0.0330078125,
"grad_norm": 0.30171769857406616,
"learning_rate": 0.0004999837728790975,
"loss": 2.0231,
"step": 338
},
{
"epoch": 0.03310546875,
"grad_norm": 0.23128142952919006,
"learning_rate": 0.00049998290759344,
"loss": 2.001,
"step": 339
},
{
"epoch": 0.033203125,
"grad_norm": 0.2433364987373352,
"learning_rate": 0.0004999820198339832,
"loss": 1.9945,
"step": 340
},
{
"epoch": 0.03330078125,
"grad_norm": 0.30562201142311096,
"learning_rate": 0.0004999811096008159,
"loss": 2.0228,
"step": 341
},
{
"epoch": 0.0333984375,
"grad_norm": 0.33020487427711487,
"learning_rate": 0.0004999801768940287,
"loss": 1.9691,
"step": 342
},
{
"epoch": 0.03349609375,
"grad_norm": 0.3125375807285309,
"learning_rate": 0.0004999792217137151,
"loss": 1.9728,
"step": 343
},
{
"epoch": 0.03359375,
"grad_norm": 0.26769348978996277,
"learning_rate": 0.0004999782440599702,
"loss": 2.0066,
"step": 344
},
{
"epoch": 0.03369140625,
"grad_norm": 0.3596431314945221,
"learning_rate": 0.0004999772439328921,
"loss": 2.0426,
"step": 345
},
{
"epoch": 0.0337890625,
"grad_norm": 0.34117281436920166,
"learning_rate": 0.0004999762213325803,
"loss": 1.9985,
"step": 346
},
{
"epoch": 0.03388671875,
"grad_norm": 0.2922564148902893,
"learning_rate": 0.0004999751762591371,
"loss": 2.0346,
"step": 347
},
{
"epoch": 0.033984375,
"grad_norm": 0.2813419997692108,
"learning_rate": 0.0004999741087126669,
"loss": 2.0573,
"step": 348
},
{
"epoch": 0.03408203125,
"grad_norm": 0.27346089482307434,
"learning_rate": 0.0004999730186932764,
"loss": 1.9655,
"step": 349
},
{
"epoch": 0.0341796875,
"grad_norm": 0.24704065918922424,
"learning_rate": 0.0004999719062010745,
"loss": 1.9542,
"step": 350
},
{
"epoch": 0.03427734375,
"grad_norm": 0.24761976301670074,
"learning_rate": 0.000499970771236172,
"loss": 1.9526,
"step": 351
},
{
"epoch": 0.034375,
"grad_norm": 0.2508860230445862,
"learning_rate": 0.0004999696137986826,
"loss": 2.0119,
"step": 352
},
{
"epoch": 0.03447265625,
"grad_norm": 0.24160990118980408,
"learning_rate": 0.0004999684338887219,
"loss": 2.0148,
"step": 353
},
{
"epoch": 0.0345703125,
"grad_norm": 0.2879098355770111,
"learning_rate": 0.0004999672315064076,
"loss": 2.0206,
"step": 354
},
{
"epoch": 0.03466796875,
"grad_norm": 0.28366580605506897,
"learning_rate": 0.0004999660066518601,
"loss": 2.0737,
"step": 355
},
{
"epoch": 0.034765625,
"grad_norm": 0.3401612937450409,
"learning_rate": 0.0004999647593252013,
"loss": 1.9868,
"step": 356
},
{
"epoch": 0.03486328125,
"grad_norm": 0.4696269631385803,
"learning_rate": 0.0004999634895265562,
"loss": 2.0079,
"step": 357
},
{
"epoch": 0.0349609375,
"grad_norm": 0.596168041229248,
"learning_rate": 0.0004999621972560515,
"loss": 2.0084,
"step": 358
},
{
"epoch": 0.03505859375,
"grad_norm": 0.5319205522537231,
"learning_rate": 0.0004999608825138162,
"loss": 2.0084,
"step": 359
},
{
"epoch": 0.03515625,
"grad_norm": 0.24298223853111267,
"learning_rate": 0.0004999595452999818,
"loss": 1.9183,
"step": 360
},
{
"epoch": 0.03525390625,
"grad_norm": 0.39650923013687134,
"learning_rate": 0.0004999581856146817,
"loss": 1.9886,
"step": 361
},
{
"epoch": 0.0353515625,
"grad_norm": 0.3819667100906372,
"learning_rate": 0.0004999568034580518,
"loss": 2.0047,
"step": 362
},
{
"epoch": 0.03544921875,
"grad_norm": 0.3298279345035553,
"learning_rate": 0.0004999553988302303,
"loss": 1.9466,
"step": 363
},
{
"epoch": 0.035546875,
"grad_norm": 0.2343115359544754,
"learning_rate": 0.0004999539717313573,
"loss": 1.9828,
"step": 364
},
{
"epoch": 0.03564453125,
"grad_norm": 0.31238943338394165,
"learning_rate": 0.0004999525221615755,
"loss": 2.0721,
"step": 365
},
{
"epoch": 0.0357421875,
"grad_norm": 0.27481910586357117,
"learning_rate": 0.0004999510501210295,
"loss": 2.0106,
"step": 366
},
{
"epoch": 0.03583984375,
"grad_norm": 0.24870915710926056,
"learning_rate": 0.0004999495556098666,
"loss": 1.9846,
"step": 367
},
{
"epoch": 0.0359375,
"grad_norm": 0.2666539251804352,
"learning_rate": 0.0004999480386282359,
"loss": 1.9988,
"step": 368
},
{
"epoch": 0.03603515625,
"grad_norm": 0.23231451213359833,
"learning_rate": 0.000499946499176289,
"loss": 2.0235,
"step": 369
},
{
"epoch": 0.0361328125,
"grad_norm": 0.19276577234268188,
"learning_rate": 0.0004999449372541798,
"loss": 1.9832,
"step": 370
},
{
"epoch": 0.03623046875,
"grad_norm": 0.23545822501182556,
"learning_rate": 0.000499943352862064,
"loss": 1.9879,
"step": 371
},
{
"epoch": 0.036328125,
"grad_norm": 0.2608807384967804,
"learning_rate": 0.0004999417460001002,
"loss": 2.047,
"step": 372
},
{
"epoch": 0.03642578125,
"grad_norm": 0.27395492792129517,
"learning_rate": 0.0004999401166684487,
"loss": 1.9496,
"step": 373
},
{
"epoch": 0.0365234375,
"grad_norm": 0.24661333858966827,
"learning_rate": 0.0004999384648672724,
"loss": 1.9924,
"step": 374
},
{
"epoch": 0.03662109375,
"grad_norm": 0.23559828102588654,
"learning_rate": 0.0004999367905967362,
"loss": 1.979,
"step": 375
},
{
"epoch": 0.03671875,
"grad_norm": 0.2556357681751251,
"learning_rate": 0.0004999350938570074,
"loss": 1.9793,
"step": 376
},
{
"epoch": 0.03681640625,
"grad_norm": 0.29081088304519653,
"learning_rate": 0.0004999333746482555,
"loss": 1.962,
"step": 377
},
{
"epoch": 0.0369140625,
"grad_norm": 0.2583800256252289,
"learning_rate": 0.0004999316329706521,
"loss": 1.9765,
"step": 378
},
{
"epoch": 0.03701171875,
"grad_norm": 0.2506580054759979,
"learning_rate": 0.0004999298688243714,
"loss": 2.0302,
"step": 379
},
{
"epoch": 0.037109375,
"grad_norm": 0.289530485868454,
"learning_rate": 0.0004999280822095895,
"loss": 1.9514,
"step": 380
},
{
"epoch": 0.03720703125,
"grad_norm": 0.24479152262210846,
"learning_rate": 0.0004999262731264848,
"loss": 1.9742,
"step": 381
},
{
"epoch": 0.0373046875,
"grad_norm": 0.23676550388336182,
"learning_rate": 0.0004999244415752381,
"loss": 2.0161,
"step": 382
},
{
"epoch": 0.03740234375,
"grad_norm": 0.2447502315044403,
"learning_rate": 0.0004999225875560323,
"loss": 2.0114,
"step": 383
},
{
"epoch": 0.0375,
"grad_norm": 0.20993874967098236,
"learning_rate": 0.0004999207110690528,
"loss": 1.9786,
"step": 384
},
{
"epoch": 0.03759765625,
"grad_norm": 0.23405557870864868,
"learning_rate": 0.0004999188121144867,
"loss": 2.0004,
"step": 385
},
{
"epoch": 0.0376953125,
"grad_norm": 0.2310025990009308,
"learning_rate": 0.0004999168906925238,
"loss": 1.924,
"step": 386
},
{
"epoch": 0.03779296875,
"grad_norm": 0.2507460117340088,
"learning_rate": 0.0004999149468033564,
"loss": 2.0301,
"step": 387
},
{
"epoch": 0.037890625,
"grad_norm": 0.30916762351989746,
"learning_rate": 0.0004999129804471782,
"loss": 1.9948,
"step": 388
},
{
"epoch": 0.03798828125,
"grad_norm": 0.42094507813453674,
"learning_rate": 0.0004999109916241858,
"loss": 2.0128,
"step": 389
},
{
"epoch": 0.0380859375,
"grad_norm": 0.5398088693618774,
"learning_rate": 0.0004999089803345779,
"loss": 1.9866,
"step": 390
},
{
"epoch": 0.03818359375,
"grad_norm": 0.4601620137691498,
"learning_rate": 0.0004999069465785554,
"loss": 1.9807,
"step": 391
},
{
"epoch": 0.03828125,
"grad_norm": 0.24873095750808716,
"learning_rate": 0.0004999048903563213,
"loss": 1.9225,
"step": 392
},
{
"epoch": 0.03837890625,
"grad_norm": 0.37363573908805847,
"learning_rate": 0.0004999028116680814,
"loss": 2.0212,
"step": 393
},
{
"epoch": 0.0384765625,
"grad_norm": 0.27399107813835144,
"learning_rate": 0.0004999007105140428,
"loss": 1.9797,
"step": 394
},
{
"epoch": 0.03857421875,
"grad_norm": 0.2717953622341156,
"learning_rate": 0.0004998985868944158,
"loss": 2.0119,
"step": 395
},
{
"epoch": 0.038671875,
"grad_norm": 0.2766648530960083,
"learning_rate": 0.0004998964408094124,
"loss": 1.9936,
"step": 396
},
{
"epoch": 0.03876953125,
"grad_norm": 0.2989843487739563,
"learning_rate": 0.0004998942722592469,
"loss": 2.0261,
"step": 397
},
{
"epoch": 0.0388671875,
"grad_norm": 0.31954097747802734,
"learning_rate": 0.000499892081244136,
"loss": 1.9713,
"step": 398
},
{
"epoch": 0.03896484375,
"grad_norm": 0.31199777126312256,
"learning_rate": 0.0004998898677642987,
"loss": 1.9548,
"step": 399
},
{
"epoch": 0.0390625,
"grad_norm": 0.2475418746471405,
"learning_rate": 0.0004998876318199557,
"loss": 1.9878,
"step": 400
},
{
"epoch": 0.03916015625,
"grad_norm": 0.25001809000968933,
"learning_rate": 0.0004998853734113308,
"loss": 1.991,
"step": 401
},
{
"epoch": 0.0392578125,
"grad_norm": 0.2468329817056656,
"learning_rate": 0.0004998830925386492,
"loss": 1.9988,
"step": 402
},
{
"epoch": 0.03935546875,
"grad_norm": 0.23273305594921112,
"learning_rate": 0.000499880789202139,
"loss": 2.0138,
"step": 403
},
{
"epoch": 0.039453125,
"grad_norm": 0.21512626111507416,
"learning_rate": 0.0004998784634020303,
"loss": 1.9326,
"step": 404
},
{
"epoch": 0.03955078125,
"grad_norm": 0.2123369723558426,
"learning_rate": 0.0004998761151385554,
"loss": 1.9954,
"step": 405
},
{
"epoch": 0.0396484375,
"grad_norm": 0.20985403656959534,
"learning_rate": 0.0004998737444119488,
"loss": 1.996,
"step": 406
},
{
"epoch": 0.03974609375,
"grad_norm": 0.19709332287311554,
"learning_rate": 0.0004998713512224473,
"loss": 1.9642,
"step": 407
},
{
"epoch": 0.03984375,
"grad_norm": 0.21997478604316711,
"learning_rate": 0.00049986893557029,
"loss": 1.9925,
"step": 408
},
{
"epoch": 0.03994140625,
"grad_norm": 0.2419801503419876,
"learning_rate": 0.0004998664974557182,
"loss": 2.0262,
"step": 409
},
{
"epoch": 0.0400390625,
"grad_norm": 0.2527197003364563,
"learning_rate": 0.0004998640368789754,
"loss": 2.0011,
"step": 410
},
{
"epoch": 0.04013671875,
"grad_norm": 0.2539777159690857,
"learning_rate": 0.0004998615538403074,
"loss": 1.9799,
"step": 411
},
{
"epoch": 0.040234375,
"grad_norm": 0.2419251948595047,
"learning_rate": 0.0004998590483399623,
"loss": 2.0035,
"step": 412
},
{
"epoch": 0.04033203125,
"grad_norm": 0.26659199595451355,
"learning_rate": 0.0004998565203781904,
"loss": 1.9743,
"step": 413
},
{
"epoch": 0.0404296875,
"grad_norm": 0.3216726779937744,
"learning_rate": 0.0004998539699552441,
"loss": 1.979,
"step": 414
},
{
"epoch": 0.04052734375,
"grad_norm": 0.2780512571334839,
"learning_rate": 0.0004998513970713783,
"loss": 1.9892,
"step": 415
},
{
"epoch": 0.040625,
"grad_norm": 0.2947809100151062,
"learning_rate": 0.00049984880172685,
"loss": 1.9836,
"step": 416
},
{
"epoch": 0.04072265625,
"grad_norm": 0.33937209844589233,
"learning_rate": 0.0004998461839219182,
"loss": 2.0007,
"step": 417
},
{
"epoch": 0.0408203125,
"grad_norm": 0.3530365228652954,
"learning_rate": 0.0004998435436568446,
"loss": 1.9462,
"step": 418
},
{
"epoch": 0.04091796875,
"grad_norm": 0.34433260560035706,
"learning_rate": 0.000499840880931893,
"loss": 1.9733,
"step": 419
},
{
"epoch": 0.041015625,
"grad_norm": 0.323081910610199,
"learning_rate": 0.0004998381957473293,
"loss": 1.9522,
"step": 420
},
{
"epoch": 0.04111328125,
"grad_norm": 0.22895868122577667,
"learning_rate": 0.0004998354881034217,
"loss": 1.9672,
"step": 421
},
{
"epoch": 0.0412109375,
"grad_norm": 0.2543105185031891,
"learning_rate": 0.0004998327580004408,
"loss": 1.9429,
"step": 422
},
{
"epoch": 0.04130859375,
"grad_norm": 0.2795581519603729,
"learning_rate": 0.0004998300054386591,
"loss": 1.9902,
"step": 423
},
{
"epoch": 0.04140625,
"grad_norm": 0.2201048880815506,
"learning_rate": 0.0004998272304183517,
"loss": 1.9365,
"step": 424
},
{
"epoch": 0.04150390625,
"grad_norm": 0.26653197407722473,
"learning_rate": 0.0004998244329397958,
"loss": 2.0178,
"step": 425
},
{
"epoch": 0.0416015625,
"grad_norm": 0.26959821581840515,
"learning_rate": 0.0004998216130032708,
"loss": 1.9625,
"step": 426
},
{
"epoch": 0.04169921875,
"grad_norm": 0.2673629820346832,
"learning_rate": 0.0004998187706090584,
"loss": 1.995,
"step": 427
},
{
"epoch": 0.041796875,
"grad_norm": 0.3190925121307373,
"learning_rate": 0.0004998159057574426,
"loss": 2.0094,
"step": 428
},
{
"epoch": 0.04189453125,
"grad_norm": 0.3376927673816681,
"learning_rate": 0.0004998130184487094,
"loss": 2.0535,
"step": 429
},
{
"epoch": 0.0419921875,
"grad_norm": 0.35333067178726196,
"learning_rate": 0.0004998101086831474,
"loss": 2.0256,
"step": 430
},
{
"epoch": 0.04208984375,
"grad_norm": 0.3051585853099823,
"learning_rate": 0.0004998071764610471,
"loss": 1.9798,
"step": 431
},
{
"epoch": 0.0421875,
"grad_norm": 0.21881523728370667,
"learning_rate": 0.0004998042217827015,
"loss": 1.9726,
"step": 432
},
{
"epoch": 0.04228515625,
"grad_norm": 0.2296576052904129,
"learning_rate": 0.0004998012446484057,
"loss": 1.9675,
"step": 433
},
{
"epoch": 0.0423828125,
"grad_norm": 0.24055050313472748,
"learning_rate": 0.0004997982450584572,
"loss": 1.9488,
"step": 434
},
{
"epoch": 0.04248046875,
"grad_norm": 0.22267191112041473,
"learning_rate": 0.0004997952230131555,
"loss": 1.9617,
"step": 435
},
{
"epoch": 0.042578125,
"grad_norm": 0.2590855658054352,
"learning_rate": 0.0004997921785128026,
"loss": 1.9745,
"step": 436
},
{
"epoch": 0.04267578125,
"grad_norm": 0.2995806336402893,
"learning_rate": 0.0004997891115577025,
"loss": 1.9667,
"step": 437
},
{
"epoch": 0.0427734375,
"grad_norm": 0.3083277642726898,
"learning_rate": 0.0004997860221481616,
"loss": 1.9661,
"step": 438
},
{
"epoch": 0.04287109375,
"grad_norm": 0.31743094325065613,
"learning_rate": 0.0004997829102844885,
"loss": 2.0172,
"step": 439
},
{
"epoch": 0.04296875,
"grad_norm": 0.37507855892181396,
"learning_rate": 0.0004997797759669941,
"loss": 2.0211,
"step": 440
},
{
"epoch": 0.04306640625,
"grad_norm": 0.35785287618637085,
"learning_rate": 0.0004997766191959914,
"loss": 2.038,
"step": 441
},
{
"epoch": 0.0431640625,
"grad_norm": 0.3099903166294098,
"learning_rate": 0.0004997734399717958,
"loss": 1.9879,
"step": 442
},
{
"epoch": 0.04326171875,
"grad_norm": 0.32211577892303467,
"learning_rate": 0.0004997702382947248,
"loss": 1.987,
"step": 443
},
{
"epoch": 0.043359375,
"grad_norm": 0.24999700486660004,
"learning_rate": 0.0004997670141650984,
"loss": 1.9765,
"step": 444
},
{
"epoch": 0.04345703125,
"grad_norm": 0.23301391303539276,
"learning_rate": 0.0004997637675832386,
"loss": 1.9592,
"step": 445
},
{
"epoch": 0.0435546875,
"grad_norm": 0.22780932486057281,
"learning_rate": 0.0004997604985494694,
"loss": 1.9762,
"step": 446
},
{
"epoch": 0.04365234375,
"grad_norm": 0.2347191423177719,
"learning_rate": 0.0004997572070641178,
"loss": 1.9791,
"step": 447
},
{
"epoch": 0.04375,
"grad_norm": 0.3288608193397522,
"learning_rate": 0.0004997538931275123,
"loss": 1.9664,
"step": 448
},
{
"epoch": 0.04384765625,
"grad_norm": 0.29897212982177734,
"learning_rate": 0.000499750556739984,
"loss": 1.9876,
"step": 449
},
{
"epoch": 0.0439453125,
"grad_norm": 0.24389693140983582,
"learning_rate": 0.0004997471979018663,
"loss": 1.9742,
"step": 450
},
{
"epoch": 0.04404296875,
"grad_norm": 0.3172384798526764,
"learning_rate": 0.0004997438166134945,
"loss": 1.969,
"step": 451
},
{
"epoch": 0.044140625,
"grad_norm": 0.22951611876487732,
"learning_rate": 0.0004997404128752065,
"loss": 1.9832,
"step": 452
},
{
"epoch": 0.04423828125,
"grad_norm": 0.2356499582529068,
"learning_rate": 0.0004997369866873423,
"loss": 2.0236,
"step": 453
},
{
"epoch": 0.0443359375,
"grad_norm": 0.2687929570674896,
"learning_rate": 0.000499733538050244,
"loss": 1.9521,
"step": 454
},
{
"epoch": 0.04443359375,
"grad_norm": 0.2512679398059845,
"learning_rate": 0.0004997300669642564,
"loss": 1.9754,
"step": 455
},
{
"epoch": 0.04453125,
"grad_norm": 0.22110989689826965,
"learning_rate": 0.0004997265734297259,
"loss": 1.9931,
"step": 456
},
{
"epoch": 0.04462890625,
"grad_norm": 0.2548464834690094,
"learning_rate": 0.0004997230574470017,
"loss": 2.001,
"step": 457
},
{
"epoch": 0.0447265625,
"grad_norm": 0.3107970356941223,
"learning_rate": 0.0004997195190164349,
"loss": 1.9855,
"step": 458
},
{
"epoch": 0.04482421875,
"grad_norm": 0.2989678680896759,
"learning_rate": 0.0004997159581383789,
"loss": 1.9646,
"step": 459
},
{
"epoch": 0.044921875,
"grad_norm": 0.3651764690876007,
"learning_rate": 0.0004997123748131896,
"loss": 1.9865,
"step": 460
},
{
"epoch": 0.04501953125,
"grad_norm": 0.41693389415740967,
"learning_rate": 0.0004997087690412248,
"loss": 1.9756,
"step": 461
},
{
"epoch": 0.0451171875,
"grad_norm": 0.425959974527359,
"learning_rate": 0.0004997051408228447,
"loss": 1.9887,
"step": 462
},
{
"epoch": 0.04521484375,
"grad_norm": 0.38966843485832214,
"learning_rate": 0.0004997014901584118,
"loss": 1.9532,
"step": 463
},
{
"epoch": 0.0453125,
"grad_norm": 0.29931432008743286,
"learning_rate": 0.0004996978170482906,
"loss": 1.9806,
"step": 464
},
{
"epoch": 0.04541015625,
"grad_norm": 0.23077397048473358,
"learning_rate": 0.0004996941214928482,
"loss": 2.0258,
"step": 465
},
{
"epoch": 0.0455078125,
"grad_norm": 0.32101985812187195,
"learning_rate": 0.0004996904034924536,
"loss": 2.0023,
"step": 466
},
{
"epoch": 0.04560546875,
"grad_norm": 0.3225870430469513,
"learning_rate": 0.0004996866630474783,
"loss": 1.9385,
"step": 467
},
{
"epoch": 0.045703125,
"grad_norm": 0.2592551112174988,
"learning_rate": 0.0004996829001582959,
"loss": 2.0176,
"step": 468
},
{
"epoch": 0.04580078125,
"grad_norm": 0.24367393553256989,
"learning_rate": 0.0004996791148252824,
"loss": 1.9844,
"step": 469
},
{
"epoch": 0.0458984375,
"grad_norm": 0.26423218846321106,
"learning_rate": 0.0004996753070488156,
"loss": 1.9675,
"step": 470
},
{
"epoch": 0.04599609375,
"grad_norm": 0.27801692485809326,
"learning_rate": 0.0004996714768292762,
"loss": 1.9265,
"step": 471
},
{
"epoch": 0.04609375,
"grad_norm": 0.3210003077983856,
"learning_rate": 0.0004996676241670467,
"loss": 1.9937,
"step": 472
},
{
"epoch": 0.04619140625,
"grad_norm": 0.3082759380340576,
"learning_rate": 0.0004996637490625118,
"loss": 1.9997,
"step": 473
},
{
"epoch": 0.0462890625,
"grad_norm": 0.2486785650253296,
"learning_rate": 0.0004996598515160589,
"loss": 2.0687,
"step": 474
},
{
"epoch": 0.04638671875,
"grad_norm": 0.31927499175071716,
"learning_rate": 0.000499655931528077,
"loss": 1.9853,
"step": 475
},
{
"epoch": 0.046484375,
"grad_norm": 0.2736678123474121,
"learning_rate": 0.0004996519890989578,
"loss": 1.9916,
"step": 476
},
{
"epoch": 0.04658203125,
"grad_norm": 0.29522353410720825,
"learning_rate": 0.0004996480242290952,
"loss": 1.9554,
"step": 477
},
{
"epoch": 0.0466796875,
"grad_norm": 0.26841938495635986,
"learning_rate": 0.0004996440369188851,
"loss": 1.9275,
"step": 478
},
{
"epoch": 0.04677734375,
"grad_norm": 0.2695488929748535,
"learning_rate": 0.0004996400271687259,
"loss": 1.9898,
"step": 479
},
{
"epoch": 0.046875,
"grad_norm": 0.36634454131126404,
"learning_rate": 0.0004996359949790181,
"loss": 1.9799,
"step": 480
},
{
"epoch": 0.04697265625,
"grad_norm": 0.37612974643707275,
"learning_rate": 0.0004996319403501647,
"loss": 1.9645,
"step": 481
},
{
"epoch": 0.0470703125,
"grad_norm": 0.29007261991500854,
"learning_rate": 0.0004996278632825703,
"loss": 1.9486,
"step": 482
},
{
"epoch": 0.04716796875,
"grad_norm": 0.30373314023017883,
"learning_rate": 0.0004996237637766424,
"loss": 1.9913,
"step": 483
},
{
"epoch": 0.047265625,
"grad_norm": 0.2949075400829315,
"learning_rate": 0.0004996196418327906,
"loss": 1.9894,
"step": 484
},
{
"epoch": 0.04736328125,
"grad_norm": 0.30601680278778076,
"learning_rate": 0.0004996154974514264,
"loss": 1.9835,
"step": 485
},
{
"epoch": 0.0474609375,
"grad_norm": 0.2896345853805542,
"learning_rate": 0.000499611330632964,
"loss": 2.0043,
"step": 486
},
{
"epoch": 0.04755859375,
"grad_norm": 0.3836851418018341,
"learning_rate": 0.0004996071413778195,
"loss": 1.9782,
"step": 487
},
{
"epoch": 0.04765625,
"grad_norm": 0.4167245626449585,
"learning_rate": 0.0004996029296864114,
"loss": 1.9792,
"step": 488
},
{
"epoch": 0.04775390625,
"grad_norm": 0.3247157335281372,
"learning_rate": 0.0004995986955591606,
"loss": 1.9548,
"step": 489
},
{
"epoch": 0.0478515625,
"grad_norm": 0.36726462841033936,
"learning_rate": 0.0004995944389964897,
"loss": 1.9844,
"step": 490
},
{
"epoch": 0.04794921875,
"grad_norm": 0.27440258860588074,
"learning_rate": 0.0004995901599988241,
"loss": 1.9608,
"step": 491
},
{
"epoch": 0.048046875,
"grad_norm": 0.271771103143692,
"learning_rate": 0.0004995858585665912,
"loss": 2.022,
"step": 492
},
{
"epoch": 0.04814453125,
"grad_norm": 0.3079121708869934,
"learning_rate": 0.0004995815347002208,
"loss": 1.9804,
"step": 493
},
{
"epoch": 0.0482421875,
"grad_norm": 0.2976233661174774,
"learning_rate": 0.0004995771884001445,
"loss": 1.9679,
"step": 494
},
{
"epoch": 0.04833984375,
"grad_norm": 0.31318438053131104,
"learning_rate": 0.0004995728196667969,
"loss": 2.0342,
"step": 495
},
{
"epoch": 0.0484375,
"grad_norm": 0.2397848516702652,
"learning_rate": 0.0004995684285006139,
"loss": 1.9801,
"step": 496
},
{
"epoch": 0.04853515625,
"grad_norm": 0.2205589860677719,
"learning_rate": 0.0004995640149020346,
"loss": 2.0088,
"step": 497
},
{
"epoch": 0.0486328125,
"grad_norm": 0.23892101645469666,
"learning_rate": 0.0004995595788714995,
"loss": 1.9888,
"step": 498
},
{
"epoch": 0.04873046875,
"grad_norm": 0.2999497354030609,
"learning_rate": 0.000499555120409452,
"loss": 1.9896,
"step": 499
},
{
"epoch": 0.048828125,
"grad_norm": 0.3309103548526764,
"learning_rate": 0.0004995506395163372,
"loss": 1.9394,
"step": 500
},
{
"epoch": 0.04892578125,
"grad_norm": 0.36243122816085815,
"learning_rate": 0.000499546136192603,
"loss": 1.9604,
"step": 501
},
{
"epoch": 0.0490234375,
"grad_norm": 0.3052852153778076,
"learning_rate": 0.0004995416104386991,
"loss": 1.9887,
"step": 502
},
{
"epoch": 0.04912109375,
"grad_norm": 0.2957259714603424,
"learning_rate": 0.0004995370622550775,
"loss": 1.9876,
"step": 503
},
{
"epoch": 0.04921875,
"grad_norm": 0.3991003632545471,
"learning_rate": 0.0004995324916421926,
"loss": 1.9932,
"step": 504
},
{
"epoch": 0.04931640625,
"grad_norm": 0.27617356181144714,
"learning_rate": 0.000499527898600501,
"loss": 1.9387,
"step": 505
},
{
"epoch": 0.0494140625,
"grad_norm": 0.2820669412612915,
"learning_rate": 0.0004995232831304614,
"loss": 2.012,
"step": 506
},
{
"epoch": 0.04951171875,
"grad_norm": 0.3026665449142456,
"learning_rate": 0.0004995186452325351,
"loss": 1.9709,
"step": 507
},
{
"epoch": 0.049609375,
"grad_norm": 0.2331731766462326,
"learning_rate": 0.000499513984907185,
"loss": 1.9617,
"step": 508
},
{
"epoch": 0.04970703125,
"grad_norm": 0.2791639268398285,
"learning_rate": 0.0004995093021548768,
"loss": 1.9635,
"step": 509
},
{
"epoch": 0.0498046875,
"grad_norm": 0.257519006729126,
"learning_rate": 0.0004995045969760785,
"loss": 1.8908,
"step": 510
},
{
"epoch": 0.04990234375,
"grad_norm": 0.26278433203697205,
"learning_rate": 0.0004994998693712598,
"loss": 1.9418,
"step": 511
},
{
"epoch": 0.05,
"grad_norm": 0.2534024715423584,
"learning_rate": 0.0004994951193408929,
"loss": 1.9821,
"step": 512
},
{
"epoch": 0.05009765625,
"grad_norm": 0.272348552942276,
"learning_rate": 0.0004994903468854527,
"loss": 1.982,
"step": 513
},
{
"epoch": 0.0501953125,
"grad_norm": 0.23883765935897827,
"learning_rate": 0.0004994855520054154,
"loss": 2.006,
"step": 514
},
{
"epoch": 0.05029296875,
"grad_norm": 0.25627830624580383,
"learning_rate": 0.0004994807347012603,
"loss": 2.0008,
"step": 515
},
{
"epoch": 0.050390625,
"grad_norm": 0.33997049927711487,
"learning_rate": 0.0004994758949734686,
"loss": 2.0339,
"step": 516
},
{
"epoch": 0.05048828125,
"grad_norm": 0.4115971028804779,
"learning_rate": 0.0004994710328225236,
"loss": 1.9982,
"step": 517
},
{
"epoch": 0.0505859375,
"grad_norm": 0.4417625069618225,
"learning_rate": 0.000499466148248911,
"loss": 1.9742,
"step": 518
},
{
"epoch": 0.05068359375,
"grad_norm": 0.4123833477497101,
"learning_rate": 0.0004994612412531189,
"loss": 2.0148,
"step": 519
},
{
"epoch": 0.05078125,
"grad_norm": 0.2234133630990982,
"learning_rate": 0.0004994563118356373,
"loss": 1.9679,
"step": 520
},
{
"epoch": 0.05087890625,
"grad_norm": 0.35439473390579224,
"learning_rate": 0.0004994513599969586,
"loss": 1.9602,
"step": 521
},
{
"epoch": 0.0509765625,
"grad_norm": 0.32346996665000916,
"learning_rate": 0.0004994463857375776,
"loss": 2.0106,
"step": 522
},
{
"epoch": 0.05107421875,
"grad_norm": 0.24506594240665436,
"learning_rate": 0.000499441389057991,
"loss": 1.993,
"step": 523
},
{
"epoch": 0.051171875,
"grad_norm": 0.26808494329452515,
"learning_rate": 0.000499436369958698,
"loss": 1.9764,
"step": 524
},
{
"epoch": 0.05126953125,
"grad_norm": 0.21936193108558655,
"learning_rate": 0.0004994313284401999,
"loss": 1.9619,
"step": 525
},
{
"epoch": 0.0513671875,
"grad_norm": 0.2545083165168762,
"learning_rate": 0.0004994262645030005,
"loss": 1.9825,
"step": 526
},
{
"epoch": 0.05146484375,
"grad_norm": 0.26330727338790894,
"learning_rate": 0.0004994211781476055,
"loss": 1.9512,
"step": 527
},
{
"epoch": 0.0515625,
"grad_norm": 0.2708059549331665,
"learning_rate": 0.0004994160693745229,
"loss": 1.9761,
"step": 528
},
{
"epoch": 0.05166015625,
"grad_norm": 0.2882954478263855,
"learning_rate": 0.0004994109381842632,
"loss": 2.0223,
"step": 529
},
{
"epoch": 0.0517578125,
"grad_norm": 0.25243133306503296,
"learning_rate": 0.0004994057845773389,
"loss": 1.976,
"step": 530
},
{
"epoch": 0.05185546875,
"grad_norm": 0.23666390776634216,
"learning_rate": 0.0004994006085542648,
"loss": 1.9729,
"step": 531
},
{
"epoch": 0.051953125,
"grad_norm": 0.24242763221263885,
"learning_rate": 0.0004993954101155578,
"loss": 1.9452,
"step": 532
},
{
"epoch": 0.05205078125,
"grad_norm": 0.259750634431839,
"learning_rate": 0.0004993901892617373,
"loss": 1.9582,
"step": 533
},
{
"epoch": 0.0521484375,
"grad_norm": 0.28516751527786255,
"learning_rate": 0.0004993849459933249,
"loss": 1.9367,
"step": 534
},
{
"epoch": 0.05224609375,
"grad_norm": 0.26534441113471985,
"learning_rate": 0.0004993796803108442,
"loss": 2.0137,
"step": 535
},
{
"epoch": 0.05234375,
"grad_norm": 0.28771716356277466,
"learning_rate": 0.0004993743922148213,
"loss": 1.927,
"step": 536
},
{
"epoch": 0.05244140625,
"grad_norm": 0.2747785449028015,
"learning_rate": 0.0004993690817057844,
"loss": 1.9729,
"step": 537
},
{
"epoch": 0.0525390625,
"grad_norm": 0.29758942127227783,
"learning_rate": 0.0004993637487842639,
"loss": 1.9713,
"step": 538
},
{
"epoch": 0.05263671875,
"grad_norm": 0.3059535026550293,
"learning_rate": 0.0004993583934507927,
"loss": 2.0313,
"step": 539
},
{
"epoch": 0.052734375,
"grad_norm": 0.36820656061172485,
"learning_rate": 0.0004993530157059056,
"loss": 1.9476,
"step": 540
},
{
"epoch": 0.05283203125,
"grad_norm": 0.39971432089805603,
"learning_rate": 0.0004993476155501396,
"loss": 2.0238,
"step": 541
},
{
"epoch": 0.0529296875,
"grad_norm": 0.3369678854942322,
"learning_rate": 0.0004993421929840346,
"loss": 1.9502,
"step": 542
},
{
"epoch": 0.05302734375,
"grad_norm": 0.3733840882778168,
"learning_rate": 0.000499336748008132,
"loss": 2.0114,
"step": 543
},
{
"epoch": 0.053125,
"grad_norm": 0.3251579999923706,
"learning_rate": 0.0004993312806229757,
"loss": 1.964,
"step": 544
},
{
"epoch": 0.05322265625,
"grad_norm": 0.4093327522277832,
"learning_rate": 0.0004993257908291117,
"loss": 1.9853,
"step": 545
},
{
"epoch": 0.0533203125,
"grad_norm": 0.26201343536376953,
"learning_rate": 0.0004993202786270888,
"loss": 2.0297,
"step": 546
},
{
"epoch": 0.05341796875,
"grad_norm": 0.27842357754707336,
"learning_rate": 0.0004993147440174572,
"loss": 2.003,
"step": 547
},
{
"epoch": 0.053515625,
"grad_norm": 0.2930687367916107,
"learning_rate": 0.00049930918700077,
"loss": 1.9634,
"step": 548
},
{
"epoch": 0.05361328125,
"grad_norm": 0.2799973785877228,
"learning_rate": 0.0004993036075775821,
"loss": 2.0023,
"step": 549
},
{
"epoch": 0.0537109375,
"grad_norm": 0.35084354877471924,
"learning_rate": 0.000499298005748451,
"loss": 2.0508,
"step": 550
},
{
"epoch": 0.05380859375,
"grad_norm": 0.2895161211490631,
"learning_rate": 0.0004992923815139362,
"loss": 2.0074,
"step": 551
},
{
"epoch": 0.05390625,
"grad_norm": 0.2637045979499817,
"learning_rate": 0.0004992867348745997,
"loss": 1.9559,
"step": 552
},
{
"epoch": 0.05400390625,
"grad_norm": 0.2837629020214081,
"learning_rate": 0.0004992810658310052,
"loss": 1.9603,
"step": 553
},
{
"epoch": 0.0541015625,
"grad_norm": 0.2644243836402893,
"learning_rate": 0.0004992753743837193,
"loss": 1.9767,
"step": 554
},
{
"epoch": 0.05419921875,
"grad_norm": 0.21815134584903717,
"learning_rate": 0.0004992696605333103,
"loss": 1.9684,
"step": 555
},
{
"epoch": 0.054296875,
"grad_norm": 0.28167852759361267,
"learning_rate": 0.0004992639242803492,
"loss": 1.97,
"step": 556
},
{
"epoch": 0.05439453125,
"grad_norm": 0.26942357420921326,
"learning_rate": 0.0004992581656254087,
"loss": 1.9825,
"step": 557
},
{
"epoch": 0.0544921875,
"grad_norm": 0.25316697359085083,
"learning_rate": 0.0004992523845690644,
"loss": 1.9698,
"step": 558
},
{
"epoch": 0.05458984375,
"grad_norm": 0.29587239027023315,
"learning_rate": 0.0004992465811118934,
"loss": 2.0063,
"step": 559
},
{
"epoch": 0.0546875,
"grad_norm": 0.3209396004676819,
"learning_rate": 0.0004992407552544757,
"loss": 2.0002,
"step": 560
},
{
"epoch": 0.05478515625,
"grad_norm": 0.2541654109954834,
"learning_rate": 0.0004992349069973931,
"loss": 2.0039,
"step": 561
},
{
"epoch": 0.0548828125,
"grad_norm": 0.34102505445480347,
"learning_rate": 0.0004992290363412298,
"loss": 1.9181,
"step": 562
},
{
"epoch": 0.05498046875,
"grad_norm": 0.36123788356781006,
"learning_rate": 0.0004992231432865723,
"loss": 2.042,
"step": 563
},
{
"epoch": 0.055078125,
"grad_norm": 0.27344051003456116,
"learning_rate": 0.0004992172278340093,
"loss": 2.0236,
"step": 564
},
{
"epoch": 0.05517578125,
"grad_norm": 0.34781453013420105,
"learning_rate": 0.0004992112899841315,
"loss": 2.0017,
"step": 565
},
{
"epoch": 0.0552734375,
"grad_norm": 0.2822319567203522,
"learning_rate": 0.0004992053297375322,
"loss": 1.9607,
"step": 566
},
{
"epoch": 0.05537109375,
"grad_norm": 0.27945882081985474,
"learning_rate": 0.0004991993470948066,
"loss": 1.9707,
"step": 567
},
{
"epoch": 0.05546875,
"grad_norm": 0.31535595655441284,
"learning_rate": 0.0004991933420565527,
"loss": 1.9708,
"step": 568
},
{
"epoch": 0.05556640625,
"grad_norm": 0.2658466398715973,
"learning_rate": 0.00049918731462337,
"loss": 1.9763,
"step": 569
},
{
"epoch": 0.0556640625,
"grad_norm": 0.3618657886981964,
"learning_rate": 0.0004991812647958607,
"loss": 2.0154,
"step": 570
},
{
"epoch": 0.05576171875,
"grad_norm": 0.34552058577537537,
"learning_rate": 0.000499175192574629,
"loss": 1.978,
"step": 571
},
{
"epoch": 0.055859375,
"grad_norm": 0.32903313636779785,
"learning_rate": 0.0004991690979602817,
"loss": 1.9762,
"step": 572
},
{
"epoch": 0.05595703125,
"grad_norm": 0.30814382433891296,
"learning_rate": 0.0004991629809534275,
"loss": 1.9944,
"step": 573
},
{
"epoch": 0.0560546875,
"grad_norm": 0.21156492829322815,
"learning_rate": 0.0004991568415546775,
"loss": 1.9919,
"step": 574
},
{
"epoch": 0.05615234375,
"grad_norm": 0.32283446192741394,
"learning_rate": 0.0004991506797646446,
"loss": 1.9697,
"step": 575
},
{
"epoch": 0.05625,
"grad_norm": 0.2915102541446686,
"learning_rate": 0.0004991444955839447,
"loss": 1.9736,
"step": 576
},
{
"epoch": 0.05634765625,
"grad_norm": 0.28996148705482483,
"learning_rate": 0.0004991382890131955,
"loss": 2.002,
"step": 577
},
{
"epoch": 0.0564453125,
"grad_norm": 0.3859401345252991,
"learning_rate": 0.0004991320600530168,
"loss": 1.9753,
"step": 578
},
{
"epoch": 0.05654296875,
"grad_norm": 0.28169432282447815,
"learning_rate": 0.0004991258087040312,
"loss": 1.9798,
"step": 579
},
{
"epoch": 0.056640625,
"grad_norm": 0.30669984221458435,
"learning_rate": 0.0004991195349668626,
"loss": 2.0007,
"step": 580
},
{
"epoch": 0.05673828125,
"grad_norm": 0.26832297444343567,
"learning_rate": 0.000499113238842138,
"loss": 2.0146,
"step": 581
},
{
"epoch": 0.0568359375,
"grad_norm": 0.25695785880088806,
"learning_rate": 0.0004991069203304865,
"loss": 1.9814,
"step": 582
},
{
"epoch": 0.05693359375,
"grad_norm": 0.25700533390045166,
"learning_rate": 0.0004991005794325389,
"loss": 1.9623,
"step": 583
},
{
"epoch": 0.05703125,
"grad_norm": 0.20786869525909424,
"learning_rate": 0.0004990942161489288,
"loss": 1.9728,
"step": 584
},
{
"epoch": 0.05712890625,
"grad_norm": 0.23988646268844604,
"learning_rate": 0.0004990878304802918,
"loss": 1.9749,
"step": 585
},
{
"epoch": 0.0572265625,
"grad_norm": 0.2418268769979477,
"learning_rate": 0.0004990814224272658,
"loss": 1.928,
"step": 586
},
{
"epoch": 0.05732421875,
"grad_norm": 0.27739882469177246,
"learning_rate": 0.0004990749919904909,
"loss": 1.964,
"step": 587
},
{
"epoch": 0.057421875,
"grad_norm": 0.2773842513561249,
"learning_rate": 0.0004990685391706094,
"loss": 1.9589,
"step": 588
},
{
"epoch": 0.05751953125,
"grad_norm": 0.24483682215213776,
"learning_rate": 0.0004990620639682659,
"loss": 1.9965,
"step": 589
},
{
"epoch": 0.0576171875,
"grad_norm": 0.27345889806747437,
"learning_rate": 0.0004990555663841071,
"loss": 1.9444,
"step": 590
},
{
"epoch": 0.05771484375,
"grad_norm": 0.26006460189819336,
"learning_rate": 0.0004990490464187824,
"loss": 1.9391,
"step": 591
},
{
"epoch": 0.0578125,
"grad_norm": 0.1935306191444397,
"learning_rate": 0.0004990425040729427,
"loss": 1.9679,
"step": 592
},
{
"epoch": 0.05791015625,
"grad_norm": 0.26823100447654724,
"learning_rate": 0.0004990359393472418,
"loss": 2.0055,
"step": 593
},
{
"epoch": 0.0580078125,
"grad_norm": 0.2706959545612335,
"learning_rate": 0.0004990293522423352,
"loss": 1.9853,
"step": 594
},
{
"epoch": 0.05810546875,
"grad_norm": 0.2099694162607193,
"learning_rate": 0.0004990227427588811,
"loss": 1.959,
"step": 595
},
{
"epoch": 0.058203125,
"grad_norm": 0.22345881164073944,
"learning_rate": 0.0004990161108975398,
"loss": 1.9867,
"step": 596
},
{
"epoch": 0.05830078125,
"grad_norm": 0.34050315618515015,
"learning_rate": 0.0004990094566589734,
"loss": 1.9555,
"step": 597
},
{
"epoch": 0.0583984375,
"grad_norm": 0.5298358798027039,
"learning_rate": 0.0004990027800438468,
"loss": 1.9824,
"step": 598
},
{
"epoch": 0.05849609375,
"grad_norm": 0.6408056616783142,
"learning_rate": 0.0004989960810528271,
"loss": 1.9647,
"step": 599
},
{
"epoch": 0.05859375,
"grad_norm": 0.4058885872364044,
"learning_rate": 0.0004989893596865833,
"loss": 1.9564,
"step": 600
}
],
"logging_steps": 1.0,
"max_steps": 10240,
"num_input_tokens_seen": 0,
"num_train_epochs": 9223372036854775807,
"save_steps": 200,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 3.673503567131443e+18,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}