Modell

Das Modell, welches auf 16.000 Datenpunkten trainiert wurde, zeigt signifikante Verbesserungen in der Leistungsfähigkeit. Dies ist auf den umfangreichen und vielfältigen Datensatz zurückzuführen, der eine bessere Generalisierung und Erkennung komplexer Muster ermöglicht.

Verwendung

Um das modell zu verwenden musst du so welche prompts schreiben: Frage< SEP >

Verfügbarkeit

Das modell muss noch 6 mal trainiert werden bis es als vorschau-version verfügbar sein wird!.

Unterschied von L-GPT_1.5

Das Modell wurde mit weniger Neuronen trainiert, daher wird es weniger verstehen und länger brauchen, um die Daten zu lernen und normale Antworten zu liefern.
Das Modell ist so klein, dass sogar ein Handy ausreicht, um es zu starten und zu nutzen. Unterstützte Chips: Snapdragon Gen 3, Snapdragon Gen 2, Snapdragon Gen 1.
Ihr könnt Pydroid verwenden oder eure eigene Methode nutzen.

Vergleiche

|-Aufgaben-|-L-GPT_1-|-L-GPT_1.1-|-L-GPT_1.5(20/40)-|-L-GPT_1.5 mini (10/20)-|
|-------------|------------|---------------|---------------------------|--------------|
|----Q&A---|--7.5%---|--44.17%---|---------73.33%---------|--64,17%--|
Downloads last month
7
Safetensors
Model size
124M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train LoewolfAI/L-GPT_1.5mini

Collection including LoewolfAI/L-GPT_1.5mini