A newer version of this model is available: ascktgcc/Mistral-nemo-ja-rp-v0.2

v0.2はこちらascktgcc/Mistral-nemo-ja-rp-v0.2

Mistral-nemoをEPR用途向けにファインチューニングしたモデルです

使用したデータセットの半分ほどが日本語なのでmagnumのようなモデルよりも日本語には強いはず?

Mistral-NemoベースなのでTemperatureは0.3程度を推奨

使用させていただいたデータセット

  • kalomaze/Opus_Instruct_25k
  • Nopm/Opus_WritingStruct
  • anthracite-org/kalo-opus-instruct-22k-no-refusal
  • Aratako/Synthetic-Japanese-Roleplay-NSFW-Claude-3.5s-15.3k-formatted
  • Aratako/Synthetic-Japanese-Roleplay-gpt-4o-mini-39.6k-formatted
  • kalomaze/Opus_Instruct_3k
Downloads last month
23
GGUF
Model size
12.2B params
Architecture
llama

4-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model's library.

Model tree for ascktgcc/Mistral-nemo-ja-rp-v0.1

Datasets used to train ascktgcc/Mistral-nemo-ja-rp-v0.1