File size: 1,460 Bytes
7129059 815da7b 7129059 85c8a54 7129059 815da7b 7129059 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 |
---
language:
- en
tags:
- gguf
- llama.cpp
- tiny
- tinyllama
---
# TinyLlama-1.1B-Chat-v1.0
![Image](image.png)
## Requisitos
Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)
Para instalar llama.cpp, sigue estos pasos:
```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
```
## Uso del modelo
La plantilla del modelo es la siguiente:
```plaintext
<|system|>\nAnswer user questions</s>\n<|user|>\n{prompt}</s>\n<|assistant|>
```
Puedes utilizar el modelo en llama.cpp con el siguiente comando:
```bash
./main -m ggml-model-Q8_0.gguf -p "<|system|>\nAnswer user questions</s>\n<|user|>\nHi</s>\n<|assistant|>" --log-disable
```
LM Studio config-presets
Filename:tinyllamachat.preset.json
```json
{
"name": "TinyLlama Chat",
"inference_params": {
"input_prefix": "<|user|>\n",
"input_suffix": "</s>\n<|assistant|>\n",
"antiprompt": [
"<|user|>\n",
"</s>\n<|assistant|>\n"
],
"pre_prompt": "<|system|>\nAnswer user questions</s>",
"pre_prompt_prefix": "",
"pre_prompt_suffix": ""
},
"load_params": {
"rope_freq_scale": 0,
"rope_freq_base": 0
}
}
```
## Referencias
- [Repositorio original](https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0)
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp) |