SousiOmine/Kuroiso-CR-7B-20250124 のGGUF量子化版です。
チャットモデルではないため、モデルの説明を読んでお試しください。

以下の例はあまりしっかり検証していないので間違っていたらごめんなさい。

Ollama Modelfile

FROM hf.co/SousiOmine/Kuroiso-CR-7B-20250124-GGUF:Q5_K_M
PARAMETER num_ctx 4096

SYSTEM "あなたには要求と回答から論理的思考を作成する任務が与えられています。万能なアシスタントがQueryタグ内の質問を受け、Answerタグ内の回答をするまでの思考をChain-of-Thought形式で記述してください。思考は<Thought>タグ内に記述してください。"

TEMPLATE """{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ end }}{{ .Response }}{{ if .Response }}<|im_end|>{{ end }}"""

Ollama+Pythonのサンプルコード

from openai import OpenAI

client = OpenAI(
    base_url = 'http://localhost:11434/v1',
    api_key='ollama', # required, but unused
)

query_template = """<Query>
{}
</Query>
<Answer>
{}
</Answer>"""

query = "こんにちは"
answer = "こんにちは!今日はいかがお過ごしですか?"

response = client.chat.completions.create(
  model="Kuroiso-CR-7B-20250124",
  messages=[
    {"role": "user", "content": query_template.format(query, answer)},
  ]
)
print(response.choices[0].message.content)
Downloads last month
79
GGUF
Model size
7.62B params
Architecture
qwen2

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model's library.

Model tree for SousiOmine/Kuroiso-CR-7B-20250124-GGUF

Base model

Qwen/Qwen2.5-7B
Quantized
(1)
this model