File size: 1,667 Bytes
f012a8c
 
 
ad4f5b1
 
 
f012a8c
 
 
9465ddd
02eea6a
 
 
 
 
f012a8c
 
 
 
 
 
 
 
 
 
 
 
 
 
ce6ea47
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f012a8c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
---
base_model:
- SousiOmine/Kuroiso-CR-7B-20250124
license: apache-2.0
language:
- ja
---

SousiOmine/Kuroiso-CR-7B-20250124
のGGUF量子化版です。  
チャットモデルではないため、[モデルの説明](https://huggingface.co/SousiOmine/Kuroiso-CR-7B-20250124)を読んでお試しください。  



以下の例はあまりしっかり検証していないので間違っていたらごめんなさい。  

# Ollama Modelfile
```
FROM hf.co/SousiOmine/Kuroiso-CR-7B-20250124-GGUF:Q5_K_M
PARAMETER num_ctx 4096

SYSTEM "あなたには要求と回答から論理的思考を作成する任務が与えられています。万能なアシスタントがQueryタグ内の質問を受け、Answerタグ内の回答をするまでの思考をChain-of-Thought形式で記述してください。思考は<Thought>タグ内に記述してください。"

TEMPLATE """{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ end }}{{ .Response }}{{ if .Response }}<|im_end|>{{ end }}"""
```

# Ollama+Pythonのサンプルコード
```
from openai import OpenAI

client = OpenAI(
    base_url = 'http://localhost:11434/v1',
    api_key='ollama', # required, but unused
)

query_template = """<Query>
{}
</Query>
<Answer>
{}
</Answer>"""

query = "こんにちは"
answer = "こんにちは!今日はいかがお過ごしですか?"

response = client.chat.completions.create(
  model="Kuroiso-CR-7B-20250124",
  messages=[
    {"role": "user", "content": query_template.format(query, answer)},
  ]
)
print(response.choices[0].message.content)
```