Edit model card

LLOROv2 - GGUF VERSION

Este repositório contém o modelo Llorov2 de 7B de parâmetros em formato GGUF, na versão 16 bits e também nas versão quantizada de 8 bits.

Lloro, desenvolvido pelos Laboratórios de Pesquisa Semantix, é um Modelo de Linguagem que foi treinado para realizar efetivamente Análise de Dados em Português no Python. É uma versão aprimorada de codellama/CodeLlama-7b-Instruct-hf, que foi treinado em conjuntos de dados sintéticos. O processo de aprimoramento foi realizado usando a metodologia QLORA em uma GPU V100 com 16 GB de RAM.

Acesse o site para mais informações sobre o Lloro.

Sobre o formato GGUF

O modelo no formato GGUF permite seu uso para inferência usando o llama.cpp, permitindo tanto o uso de CPU como de GPU, e outras bibliotecas e ferramentas compatíveis, como:

Detalhes do Modelo

  • Modelo Base: CodeLlama-7b-Instruct-hf
  • Dataset de Treinamento: Synthetic
  • Idioma: Português

Contribuições

Contribuições para a melhoria deste modelo são bem-vindas. Sinta-se à vontade para abrir problemas e solicitações pull.

Downloads last month
44
GGUF
Model size
6.74B params
Architecture
llama
Unable to determine this model’s pipeline type. Check the docs .

Quantized from

Dataset used to train anaxsouza/llorov2-gguf