File size: 2,126 Bytes
2495eb9 a753cda 2495eb9 b54dc8b 2495eb9 6ce6e0f b54dc8b 6ce6e0f 8f2b253 6ce6e0f b54dc8b 124dd5a 6ce6e0f b54dc8b 6ce6e0f 2495eb9 8f2b253 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 |
---
language:
- ja
base_model:
- sbintuitions/modernbert-ja-130m
license: cc-by-nc-4.0
---
# ModernBERT_Japanese_MT_Bench_test
これはテスト的なモデルです。
[Nejumi LLMリーダーボード3](https://wandb.ai/wandb-japan/llm-leaderboard3/reports/Nejumi-LLM-3--Vmlldzo3OTg2NjM2?accessToken=wpnwc9whr96pxm40dfe4k3xq513f9jc4yhj7q6pnvj4jtayoefbc77qhzbsrztgz)で公開されているJapanese MT Benchのroleplay, humanities, writingの結果を勝手にModernBERTに学習させたモデルです。
今後、自力でJapanese MT Benchをし直して使えるモデルにしていきたい。
## トレーニングの結果
トレーニングコードはChatGPTに書いてもらいました。自力で設計できるようになりたい…。
[training用のノートブック](https://huggingface.co/kurogane/ModernBERT_Japanese_MT_Bench_test/blob/main/train_jmtb_test_v6%20(%E3%82%B3%E3%83%94%E3%83%BC).ipynb)でfine tuningしました。
Japanese MT Benchの0~10の結果を1/10して、0~1.0の回帰タスクとして学習させています。

やりすぎなのかもしれないし、どう改善したらいいんだろうか?

データセットの分布を見る限り、9の出力に偏りが多いので推測結果が高めに偏ってるのかもしれません。
## testデータとの差
[test用のnotebook](https://huggingface.co/kurogane/ModernBERT_Japanese_MT_Bench_test/blob/main/modernbert_run_test.ipynb)のコードで出力しました。

予測できてる雰囲気だけど、低いやつをだいぶ予測ミスしてるから使い物にはならなそう。
## License
各モデルの継承ライセンスに従う必要があるので、基本的に使用不可と考えてください。
そのため、CC-BY-NC-4.0とします。 |