--- base_model: mesolitica/mallam-5b-20k-instructions-v2 inference: false model_creator: mesolitica model_name: Mallam 5B 20k Instructions v2 model_type: mistral pipeline_tag: text-generation prompt_template: >- [INST] This is a system prompt. This is the first user input. [/INST] This is the first assistant response. [INST] This is the second user input. [/INST] quantized_by: prsyahmi tags: - finetuned --- # Mallam 5B 20k Instructions v2 - GGUF - Model creator: [mesolotica](https://huggingface.co/mesolitica) - Original model: [Mallam 5B 20k Instructions v2](https://huggingface.co/mesolitica/mallam-5b-20k-instructions-v2) ## Pengenalan Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python. ## Prompt template: Mistral ``` [INST] This is a system prompt. This is the first user input. [/INST] This is the first assistant response. [INST] This is the second user input. [/INST] ``` ## Fail yang diberikan Sila rujuk [Files and versions](https://huggingface.co/prsyahmi/mallam-5b-20k-instructions-v2-GGUF/tree/main) ## Penghargaan Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)! Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan. -------