import requests
import json

# Ollama 的地址和端口（默认是 11434）
ollama_url = "http://localhost:11434/api/generate" # 可以在浏览器测试是否可以请求
 
data = {
    "model": "deepseek-r1:1.5b",  # 使用你想要的模型名称，例如 "mistral" 或 "llama2"
    "prompt": "模型参数多少b",  # 你想要模型生成的文本的提示
    "stream": True, # 如果True 则response 的content-type类型为：application/x-ndjson, false则为 application/json
}

try:
    # 发送 POST 请求到 Ollama API，启用流式传输
    with requests.post(f"{ollama_url}", json=data, stream=True) as response:
        # 检查响应状态码
        if response.status_code == 200:
            if "application/x-ndjson" in response.headers.get("Content-Type").lower():
                for line in response.iter_lines():
                    if line:
                        data = json.loads(line.decode('utf-8').strip())
                        print(data['response'],end="")
                        if data.get("done"):
                            break
        else:
            print("Error:", response.status_code, response.text)
except requests.exceptions.ConnectionError as e:
    print("无法连接到 Ollama API，请检查服务器是否启动并且 URL 是否正确。")
    print("详细错误信息:", e)

