--- license: apache-2.0 datasets: - trollek/Danoia-v01 - trollek/ProbingPanoia-v01 - trollek/Panoia-v02 - smangrul/ultrachat-10k-chatml - Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k language: - da - en base_model: - trollek/Holger-7B-v0.1 library_name: transformers --- Android Vikingen Holger # Du har fundet Holger! Det er *forrykt* at danske open source sprogmodeller halter lidt; **æøå** be damned! Og nok også andre ting, men \[A-ZÆØÅa-zæøå\] giver kronisk mentaleksem. **Anyway!** HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for. ## Sprogmodellens beskrivelse > Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa... Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Maybe. ## Original - [trollek/Holger-7B-v0.1](https://huggingface.co/trollek/Holger-7B-v0.1) ## Noter Hvis du vil undgå den øjebæ som \<\/s\> kan være, kan du med Ollama gøre følgende: ```bash ollama run hf.co/trollek/Holger-7B-v0.1-GGUF: /set parameter stop "" /set parameter num_ctx 4096 /save # det kommer ikke til at optage mange kB ``` I LM studio kan du tilføje \<\/s\> som en extra stop token. Er mit bud. Jeg kan ikke teste det før i morgen; jeg er ved at YOLO Danoia-v02 med Holger. Jeg har heller ikke testet om man kan bruge den til at lave instruktioner med Magpie-align metoden, men det virker til at den giver ret fornuftige svar i det mindste, selvom 20% af dem ikke er på dansk. Oh well.