File size: 1,685 Bytes
6a83dfe 9813e3e 6522258 717ff28 f25d586 6a83dfe be080c9 9813e3e be080c9 f41056a be080c9 9813e3e be080c9 9813e3e be080c9 03f5e87 9813e3e be080c9 9813e3e be080c9 9813e3e be080c9 9813e3e 6e9f487 77a1e99 be080c9 9813e3e 948ea63 be080c9 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
---
license: apache-2.0
language:
- de
- en
pipeline_tag: text-generation
library_name: transformers
model_type: llama
metrics:
- perplexity
inference: false
tags:
- gpt
- llama
- EVA-GPT-German
- TMP-Networks
---
## Kompatibilität
Das Modell ist kompatibel mit macOS, Windows und Linux.
## Nutzung
Dieses Sprachmodell kann mit den folgenden Tools in der CPU/GPU-Version (Community Edition) verwendet werden:
- **Ollama**: [ollama.com](https://ollama.com/)
- **LM Studio**: [lmstudio.ai](https://lmstudio.ai/)
Konfigurationsdateien für Ollama und LM Studio können im Bereich **Files** heruntergeladen werden.
## Kontexterkennung
Die Kontexterfassung funktioniert zuverlässig und liefert präzise Ergebnisse, jetzt auch mit 4096.
## Beispiel
Ein Chatbeispiel ist verfügbar unter: [Hugging Face Beispiel](https://huggingface.co/MTSmash/EVA-GPT-German-GGUF/blob/main/TestQ4_K_M.png)
## Weiteres Testen
Zum Testen des Modells ohne Download besuchen Sie bitte: [TMP-Networks AI](https://ai.tmp-networks.de)
## Wichtiger Hinweis
Falls Fehlermeldungen erscheinen, befindet sich das Modell möglicherweise in einer weiteren Trainingsphase.
Im weiteren Beachten Sie, dass der Einsatz dieses Model in einigen Fällen als illegal oder als Verstoß gegen die Nutzungsbedingungen von Internetdiensten betrachtet werden kann.
Stellen Sie sicher, dass Sie die Gesetze und Richtlinien Ihres Landes oder Ihrer Organisation beachten, bevor Sie diese Model verwenden.
## Community
Treten Sie unserer Facebook-Gruppe bei: [Facebook-Gruppe](https://www.facebook.com/groups/1356910801463873)
## Unterstützen Sie uns!
https://www.buymeacoffee.com/infomve
## Urheberrecht
(c) 2024 TMP-Networks |