LLOROv2 - GGUF VERSION
Este repositório contém o modelo Llorov2 de 7B de parâmetros em formato GGUF, na versão 16 bits e também nas versão quantizada de 8 bits.
Lloro, desenvolvido pelos Laboratórios de Pesquisa Semantix, é um Modelo de Linguagem que foi treinado para realizar efetivamente Análise de Dados em Português no Python. É uma versão aprimorada de codellama/CodeLlama-7b-Instruct-hf, que foi treinado em conjuntos de dados sintéticos. O processo de aprimoramento foi realizado usando a metodologia QLORA em uma GPU V100 com 16 GB de RAM.
Acesse o site para mais informações sobre o Lloro.
Sobre o formato GGUF
O modelo no formato GGUF permite seu uso para inferência usando o llama.cpp, permitindo tanto o uso de CPU como de GPU, e outras bibliotecas e ferramentas compatíveis, como:
Detalhes do Modelo
- Modelo Base: CodeLlama-7b-Instruct-hf
- Dataset de Treinamento: Synthetic
- Idioma: Português
Contribuições
Contribuições para a melhoria deste modelo são bem-vindas. Sinta-se à vontade para abrir problemas e solicitações pull.
- Downloads last month
- 44