prsyahmi's picture
Create README.md
be029e1 verified
|
raw
history blame
No virus
1.56 kB
metadata
base_model: mesolitica/mallam-1.1b-20k-instructions-v2
inference: false
model_creator: mesolitica
model_name: Mallam 1.1B 20k Instructions v2
model_type: mistral
pipeline_tag: text-generation
prompt_template: |
  <s>[INST] {prompt} [/INST]
quantized_by: prsyahmi
tags:
  - finetuned

Malaysian Mistral 7B 32k Instructions - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.

Prompt template: Mistral

<s>[INST] {prompt} [/INST]

Fail yang diberikan

Sila rujuk Files and versions

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.