Malaysian Mistral 7B 32k Instructions - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF untuk mesolitica's Malaysian Mistral 7B 32k Instructions v2.

GGUF adalah format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana pergantungan dengan software/library lain kurang menjadikan aplikasi ini ringan berbanding rata-rata aplikasi python.

Prompt template: Mistral

<s>[INST] {prompt} [/INST]

Fail yang diberikan

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.


Downloads last month
34
GGUF
Model size
7.24B params
Architecture
llama

4-bit

5-bit

Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API has been turned off for this model.

Model tree for prsyahmi/malaysian-mistral-7b-32k-instructions-v2-ckpt-1700-GGUF

Quantized
(1)
this model