File size: 1,667 Bytes
f012a8c ad4f5b1 f012a8c 9465ddd 02eea6a f012a8c ce6ea47 f012a8c |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 |
---
base_model:
- SousiOmine/Kuroiso-CR-7B-20250124
license: apache-2.0
language:
- ja
---
SousiOmine/Kuroiso-CR-7B-20250124
のGGUF量子化版です。
チャットモデルではないため、[モデルの説明](https://huggingface.co/SousiOmine/Kuroiso-CR-7B-20250124)を読んでお試しください。
以下の例はあまりしっかり検証していないので間違っていたらごめんなさい。
# Ollama Modelfile
```
FROM hf.co/SousiOmine/Kuroiso-CR-7B-20250124-GGUF:Q5_K_M
PARAMETER num_ctx 4096
SYSTEM "あなたには要求と回答から論理的思考を作成する任務が与えられています。万能なアシスタントがQueryタグ内の質問を受け、Answerタグ内の回答をするまでの思考をChain-of-Thought形式で記述してください。思考は<Thought>タグ内に記述してください。"
TEMPLATE """{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ end }}{{ .Response }}{{ if .Response }}<|im_end|>{{ end }}"""
```
# Ollama+Pythonのサンプルコード
```
from openai import OpenAI
client = OpenAI(
base_url = 'http://localhost:11434/v1',
api_key='ollama', # required, but unused
)
query_template = """<Query>
{}
</Query>
<Answer>
{}
</Answer>"""
query = "こんにちは"
answer = "こんにちは!今日はいかがお過ごしですか?"
response = client.chat.completions.create(
model="Kuroiso-CR-7B-20250124",
messages=[
{"role": "user", "content": query_template.format(query, answer)},
]
)
print(response.choices[0].message.content)
``` |