Edit model card

Some GGUF's of samba-1.1B

Coloca na descrição: dedicado ao meu grande amigo, CodeAnguish

Orignial Model Card Below


license: llama2 datasets: - ju-resplande/rebel-pt - paulofinardi/OIG_small_chip2_portuguese_brasil - Guilherme34/Cabrita-lora-ptbr - dominguesm/Canarim-Instruct-PTBR-Dataset language: - pt - en pipeline_tag: text-generation library_name: transformers widget: - text: | Pergunta: Quantos planetas existem no sistema solar? tags: - Portuguese - Llama - Tiny-Llama - LLM - PEFT


PT - README


Samba Logo

Samba é um LLM treinado em dados da língua portuguesa. O modelo é baseado no TinyLlama-1.1B, uma versão de 1.1B parâmetros do LLaMA-2.

O projeto do LLM Samba tem como objetivo fornecer mais opções de LLMs para língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs.

Em apoio aos países de língua portuguesa. 🇦🇴🇧🇷🇨🇻🇬🇼🇬🇶🇲🇿🇵🇹🇸🇹🇹🇱

Detalhes do Modelo

Esse modelo foi fine-tunado em quatro datasets (rebel-pt, OIG_small_chip2_portuguese_brasil, Cabrita-lora-ptbr e Canarim-Instruct-PTBR-Dataset) com dados de texto na língua portuguesa, contendo aproximadamente 1.4 million de amostras.

Atualizações Futuras

  • Adicionar mais dados de textos da língua portuguesa.
  • Disponibilizar versões quantizadas.

Descrição do Modelo

Como usar

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained('lrds-code/samba-1.1B')
tokenizer = AutoTokenizer.from_pretrained('lrds-code/samba-1.1B')

text = 'Pergunta: Como desenvolver habilidades de programação em python?'
inputs = tokenizer(text, return_tensors='pt')

outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

## Pergunta: Como desenvolver habilidades de programação em python?
## Resposta: Para desenvolver habilidades de programação em Python, você precisa aprender a ler e escrever código.
##           Você também precisa entender o que significa cada parte do código e como ela funciona.
##           Você também precisa entender como usar bibliotecas e frameworks para criar aplicativos.
##           Além disso, você precisa entender como usar o IDE (Integrated Development Environment) para desenvolver e testar seu código.

EN - README


Samba-1.1B

Samba Logo

Samba is a LLM trained on portuguese language data. The model is based on TinyLlama-1.1B, a 1.1B parameter version of LLaMA-2.

The LLM Samba project aims to provide more LLM options in Portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs.

In support of portuguese-speaking countries. 🇦🇴🇧🇷🇨🇻🇬🇼🇬🇶🇲🇿🇵🇹🇸🇹🇹🇱

Model Details

This model was fine-tuned on four datasets (rebel-pt, OIG_small_chip2_portuguese_brasil, Cabrita-lora-ptbr and Canarim-Instruct-PTBR-Dataset) with portuguese data that total approximately 1.4 million samples.

Future Updates

  • Add more data from the portuguese language.
  • Make quantized versions available.

Model Description

How to Use

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained('lrds-code/samba-1.1B')
tokenizer = AutoTokenizer.from_pretrained('lrds-code/samba-1.1B')

text = 'Pergunta: Como desenvolver habilidades de programação em python?'
inputs = tokenizer(text, return_tensors='pt')

outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

## Pergunta: Como desenvolver habilidades de programação em python?
## Resposta: Para desenvolver habilidades de programação em Python, você precisa aprender a ler e escrever código.
##           Você também precisa entender o que significa cada parte do código e como ela funciona.
##           Você também precisa entender como usar bibliotecas e frameworks para criar aplicativos.
##           Além disso, você precisa entender como usar o IDE (Integrated Development Environment) para desenvolver e testar seu código.
Downloads last month
61
GGUF
Model size
1.1B params
Architecture
llama
Unable to determine this model's library. Check the docs .