| | """ |
| | llm.py – LLM local über Ollama (z.B. qwen2.5:1.5b-instruct) |
| | Kein HF Inference, komplett kostenlos. |
| | """ |
| |
|
| | from langchain_community.chat_models import ChatOllama |
| |
|
| |
|
| | MODEL_NAME = "qwen2.5:1.5b-instruct" |
| |
|
| |
|
| | def load_llm(): |
| | """ |
| | Erstellt ein ChatOllama-Modell, das auf den lokal laufenden |
| | Ollama-Server (http://localhost:11434) zugreift. |
| | """ |
| | print(f">>> Lade lokales Ollama-LLM: {MODEL_NAME}") |
| |
|
| | llm = ChatOllama( |
| | model=MODEL_NAME, |
| | temperature=0.0, |
| | base_url="http://127.0.0.1:11434", |
| | ) |
| |
|
| | print(">>> LLM ready.\n") |
| | return llm |
| |
|
| |
|
| | if __name__ == "__main__": |
| | llm = load_llm() |
| | print(llm.invoke("Sag einen kurzen Satz auf Deutsch.")) |
| |
|