Works great with GPT4All, BUT

#1
by Phil2Sat - opened

I've tried the model but it seems the knowledge is limited to 2018 and prior. I asked some questions reguarding Wagner Chef Prigoschin and only he knows that he 2018 retired.

I'm an absolute noob to this but is it possible to recreate this with actual Datasets?

Thanks in advance
Phil2Sat

German below

Hi, I did not create the model myself, I just did a quantization. Therefore, I can't offer any direct help in this regard, unfortunately. Furthermore, .ggml is now an outdated format. However, I have also found that the model gives relatively poor performance (both in German and related to facts), so I have also stopped using it. In principle, however, it is always possible to finetune a model with a current dataset, although the consensus at the moment is that finetuning does not really teach the model any new knowledge and is rather inefficient for such a task.

Anyway, I can highly recommend the model codeCherryPop. Although it was not directly trained on it, it can comparatively incredibly well German and provides very good facts. Here is a link to it:

codeCherryPop 7B gguf

Edit: In my experience, if you want to talk to codeCherryPop in German, the prompt should also be in German so that you get extra coherent results in German. Something like this: In etwa so:

Im Folgenden findest du eine Anweisung, die eine Aufgabe beschreibt. Schreibe eine Antwort, mit der du die Aufgabe angemessen erfüllst.

### Anweisung:
{Here your request}

### Antwort:

Hi, ich habe das Modell nicht selbst erstellt, sondern nur eine Quantisierung vorgenommen. Daher kann ich diesbezüglich leider keine direkte Hilfe anbieten. Darüberhinaus ist .ggml inzwischen ein veraltetes Format. Allerdings habe ich auch festgestellt, dass das Modell relativ schlechte Performance liefert (sowohl in deutscher Sprache als auch bezogen auf Fakten), daher habe ich es auch nicht mehr benutzt. Prinzipiell ist es aber jederzeit möglich, ein Modell mit einem aktuellen Datensatz zu finetunen, wobei der Konsensus ja momentan ist, dass das Finetuning dem Modell nicht wirklich neues Wissen beibringt und eher ineffizient ist für ein solches Vorhaben.

Wie dem auch sei, ich kann wärmstens das Modell codeCherryPop empfehlen. Obwohl es nicht direkt darauf trainiert wurde, kann es vergleichsweise unglaublich gut Deutsch und liefert sehr gute Fakten. Hier ein Link dazu:

codeCherryPop 7B gguf

Edit: Meiner Erfahrung nach, wenn man sich auf Deutsch mit codeCherryPop unterhalten möchte, sollte der Prompt ebenfalls auf Deutsch sein, damit man besonders kohärente Ergebnisse auf Deutsch bekommt. In etwa so:

Im Folgenden findest du eine Anweisung, die eine Aufgabe beschreibt. Schreibe eine Antwort, mit der du die Aufgabe angemessen erfüllst.

### Anweisung:
{Hier deine Anfrage}

### Antwort:

Sign up or log in to comment