Edit model card

Modelo llama v2 7b, treinado em portugues via QLORA, bons resultados com a lingua. testado apenas em windos, cuda 1.2.1, imagino que pelo menos 4GB de ram na GPU é necessária devido a quantização 4bit.

Downloads last month
0
Inference Examples
Unable to determine this model's library. Check the docs .

Dataset used to train DiegoVSulz/capivarinha_portugues_7Blv2-4bit-128-GPTQ