avacaondata's picture
Update README.md
11c52e1 verified
|
raw
history blame
3.73 kB
metadata
language: es
license: apache-2.0
tags:
  - text-generation-inference
  - transformers
  - gemma
  - chat
  - qa
  - multi-task-learning
  - instruction-tuning
base_model: google/gemma-2b

image/png

Modelo LenguajeNatural.AI Chat e Instrucciones 2B

Desarrollado por

Este modelo ha sido desarrollado por LenguajeNatural.AI, con el objetivo de proporcionar a la comunidad de habla hispana herramientas avanzadas para la generaci贸n de texto, chat e instrucciones. Es el primero de una serie de modelos que planeamos lanzar.

Licencia

Este modelo se distribuye bajo la licencia Apache 2.0.

Modelo Base

Este modelo se ha afinado a partir de avacaondata/leniachat-2b-instruct-es-v0, incorporando caracter铆sticas avanzadas para una mejor generaci贸n de texto y comprensi贸n en tareas de chat e instrucciones.

Idioma

El modelo ha sido entrenado exclusivamente en espa帽ol, con el objetivo de maximizar su efectividad en aplicaciones destinadas a usuarios de habla hispana.

Entrenamiento

El modelo se ha entrenado en tres fases distintas para asegurar un rendimiento 贸ptimo en una amplia gama de tareas:

  1. Aprendizaje multi-tarea en espa帽ol: Utilizando m煤ltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
  2. Entrenamiento de instrucciones de alta calidad: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
  3. Entrenamiento de chat y QA abstractivo: Optimizando el modelo para conversaciones fluidas y la generaci贸n de respuestas a preguntas abstractas.

Usos Intendidos y Limitaciones

Este modelo est谩 dise帽ado para ser utilizado en aplicaciones de generaci贸n de texto, chatbots, y asistentes virtuales en espa帽ol. Aunque ha sido entrenado para minimizar sesgos y errores, recomendamos evaluar su desempe帽o en su contexto espec铆fico de uso. Los usuarios deben ser conscientes de las limitaciones inherentes a los modelos de lenguaje y utilizar este modelo de manera responsable.

驴C贸mo empezar?

Puedes empezar a utilizar este modelo a trav茅s de la API de Hugging Face o integrarlo en tus aplicaciones utilizando la biblioteca transformers. Aqu铆 tienes un ejemplo de c贸mo cargar el modelo:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_name = "LenguajeNaturalAI/leniachat-gemma-2b-v0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# Generar texto
messages = [
  {"role": "system", "content": "Eres un asistente que ayuda al usuario a lo largo de la conversaci贸n resolviendo sus dudas."},
  {"role": "user", "content": "驴Qu茅 fue la revoluci贸n industrial?"}
]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, return_tensors="pt")
with torch.no_grad():
  output = model.generate(**input_ids, max_length=50)
print(tokenizer.decode(output[0], skip_special_tokens=True))

Evaluaci贸n

Para asegurar la calidad del modelo, se ha realizado una evaluaci贸n exhaustiva en varios conjuntos de datos, mostrando una mejora significativa en la generaci贸n de texto y la comprensi贸n de instrucciones en espa帽ol. Los detalles espec铆ficos de la evaluaci贸n est谩n disponibles en nuestro repositorio.

Contribuciones

Animamos a la comunidad a contribuir con retroalimentaci贸n, sugerencias, y mejoras para este modelo. La colaboraci贸n es fundamental para el avance de la inteligencia artificial accesible y 茅tica.

Futuras Versiones

Planeamos continuar mejorando este modelo y lanzar versiones futuras con capacidades ampliadas. Mantente atento a nuestras actualizaciones.