Edit model card

Llama-2-7b-miniXelta

Este es un modelo ajustado a partir del modelo Llama-2-7b-chat-hf utilizando LoRA y precisión de 4 bits. Ha sido entrenado con el conjunto de datos Xelta/response_mongo_text.

Uso

Puedes usar este modelo para generación de texto de la siguiente manera:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "username/llama-2-7b-miniXelta"

model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "Quiero inscribirme, soy Mattias y mi edad es 28 años"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month
3
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train Xelta/miniXelta_01

Evaluation results