File size: 1,559 Bytes
be029e1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
---
base_model: mesolitica/mallam-1.1b-20k-instructions-v2
inference: false
model_creator: mesolitica
model_name: Mallam 1.1B 20k Instructions v2
model_type: mistral
pipeline_tag: text-generation
prompt_template: '<s>[INST] {prompt} [/INST]

  '
quantized_by: prsyahmi
tags:
- finetuned
---
<!-- markdownlint-disable MD041 -->

<!-- header start --><!-- header end -->

# Malaysian Mistral 7B 32k Instructions - GGUF
- Model creator: [mesolotica](https://huggingface.co/mesolitica)
- Original model: [Mallam 1.1B 20k Instructions v2](https://huggingface.co/mesolitica/mallam-1.1b-20k-instructions-v2)

<!-- description start -->
## Pengenalan
Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.

<!-- description end -->

<!-- prompt-template start -->
## Prompt template: Mistral
```
<s>[INST] {prompt} [/INST]

```

<!-- prompt-template end -->


<!-- README_GGUF.md-provided-files start -->
## Fail yang diberikan
Sila rujuk [Files and versions](https://huggingface.co/prsyahmi/mallam-1.1b-20k-instructions-v2-GGUF/tree/main)

<!-- README_GGUF.md-provided-files end -->

## Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.

<!-- footer end -->

-------

<!-- original-model-card start -->

<!-- original-model-card end -->