Kompatibilität

Das Modell ist kompatibel mit macOS, Windows und Linux.

Nutzung

Dieses Sprachmodell kann mit den folgenden Tools in der CPU/GPU-Version (Community Edition) verwendet werden:

Konfigurationsdateien für Ollama und LM Studio können im Bereich Files heruntergeladen werden.

Kontexterkennung

Die Kontexterfassung funktioniert zuverlässig und liefert präzise Ergebnisse, jetzt auch mit 4096.

Beispiel

Ein Chatbeispiel ist verfügbar unter: Hugging Face Beispiel

Weiteres Testen

Zum Testen des Modells ohne Download besuchen Sie bitte: TMP-Networks AI

Wichtiger Hinweis

Falls Fehlermeldungen erscheinen, befindet sich das Modell möglicherweise in einer weiteren Trainingsphase.

Im weiteren Beachten Sie, dass der Einsatz dieses Model in einigen Fällen als illegal oder als Verstoß gegen die Nutzungsbedingungen von Internetdiensten betrachtet werden kann. Stellen Sie sicher, dass Sie die Gesetze und Richtlinien Ihres Landes oder Ihrer Organisation beachten, bevor Sie diese Model verwenden.

Community

Treten Sie unserer Facebook-Gruppe bei: Facebook-Gruppe

Unterstützen Sie uns!

https://www.buymeacoffee.com/infomve

Urheberrecht

(c) 2024 TMP-Networks

Downloads last month
2,336
GGUF
Model size
7.24B params
Architecture
llama

2-bit

3-bit

4-bit

6-bit

8-bit

16-bit

Inference Examples
Inference API (serverless) has been turned off for this model.