phi-2-LC / README.md
telodigoensergio's picture
Update README.md
30c8913 verified
|
raw
history blame
6.57 kB
metadata
library_name: transformers
datasets:
  - somosnlp/lenguaje-claro-dataset
language:
  - es
license: apache-2.0

Model Card for Phi-2-LC

Este modelo es el primer paso hacia un modelo de lenguaje que pueda usarse para reescribir textos de car谩cter administrativo con el objetivo de mejorar su comprensi贸n y lecturabilidad para todo el mundo.

Model Details

Model Description

Model Sources

Uses

Direct Use

El modelo "Phi-2-LC" ha sido creado espec铆ficamente para simplificar textos administrativos y legales que suelen ser dif铆ciles de entender debido a su complejidad y uso de jerga especializada. Su uso principal es facilitar la comprensi贸n de estos textos para personas sin formaci贸n especializada en 谩reas legales o administrativas, as铆 como para mejorar la accesibilidad de la informaci贸n proporcionada por los ministerios de Espa帽a a trav茅s de sus p谩ginas web.

Out-of-Scope Use

Este modelo no est谩 dise帽ado para interpretaci贸n legal formal o para la redacci贸n de documentos legales o administrativos oficiales, dado que la simplificaci贸n podr铆a omitir aspectos cr铆ticos necesarios para una correcta interpretaci贸n legal.

Bias, Risks, and Limitations

Dado que el dataset utilizado para el entrenamiento del modelo proviene exclusivamente de textos gubernamentales espa帽oles, es probable que el modelo pueda exhibir sesgos relacionados con el contexto cultural y legal espec铆fico de Espa帽a. Estos sesgos pueden influir en la generalizaci贸n del modelo cuando se aplique a textos de naturaleza o origen diferentes. Se recomienda una evaluaci贸n continua del modelo para identificar y mitigar tales sesgos de manera efectiva.

Recommendations

Se recomienda usar el modelo conscientemente, entendiendo que puede tener limitaciones en contextos fuera del 谩mbito administrativo espa帽ol y que los resultados deben ser verificados por expertos en el contexto de uso.

Environmental Impact

  • Hardware Type: T4 - 16GB
  • Hours used: 3
  • Cloud Provider: Google
  • Compute Region: Europe
  • Carbon Emitted: 0.13 kg CO2 eq.

How to Get Started with the Model

!pip install transformers
!pip install bitsandbytes
!pip install accelerate
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig

model_id = 'phi-2-LC'  # example model ID
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

Cargar el tokenizador y el modelo

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map='auto', quantization_config=bnb_config, trust_remote_code=True)

Configuraci贸n de BitsAndBytes para optimizaci贸n

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type='nf4',
    bnb_4bit_compute_dtype='float16',
    bnb_4bit_use_double_quant=True
)

Definir el prompt y generar texto aclarado

def generate_clear_text(text):
    prompt = f"""###System:
    Lee el siguiente texto y hazlo m谩s claro:
    ###Texto:
    {text}
    ###Texto aclarado:
    """
    inputs = tokenizer(prompt, return_tensors="pt", return_attention_mask=False, padding=True, truncation=True)
    outputs = model.generate(**inputs, max_length=1000)
    clear_text = tokenizer.batch_decode(outputs, skip_special_tokens=True)[0]
    return clear_text

Uso del modelo para clarificar un ejemplo de texto

sample_text = "El procedente documento detalla la normativa aplicable a..."
clear_text = generate_clear_text(sample_text)
print(clear_text)

Evaluaci贸n

Datos de Prueba, Factores y M茅tricas

Datos de Prueba

La evaluaci贸n se llev贸 a cabo en un conjunto separado de textos administrativos, similares en estilo y complejidad a los datos de entrenamiento, asegurando que el modelo fuera probado en condiciones similares a su entorno de entrenamiento.

Factores

La evaluaci贸n se desagreg贸 por el tipo de texto administrativo para evaluar el rendimiento en diferentes tipos de documentos legales y administrativos.

Resultados

El modelo demostr贸 un aumento significativo en los puntajes de legibilidad y mantuvo una alta fidelidad a los textos originales, lo que indica una simplificaci贸n efectiva sin perder informaci贸n importante.

Impacto Ambiental

Las emisiones de carbono fueron estimadas utilizando la calculadora de impacto de aprendizaje autom谩tico proporcionada en Lacoste et al. (2019).

  • Tipo de Hardware: T4 - 16GB
  • Horas utilizadas: 3
  • Proveedor de la Nube: Google Cloud
  • Regi贸n de C贸mputo: Europa
  • Carbono Emitido: 0.13 kg CO2 eq.

Especificaciones T茅cnicas

Arquitectura y Objetivo del Modelo

Phi-2-LC se basa en la arquitectura Phi-2, que es un modelo transformador ajustado a instrucciones dise帽ado para procesar y simplificar textos legales y administrativos complejos.

Infraestructura de C贸mputo

Hardware

El proceso de ajuste fino se llev贸 a cabo utilizando las GPU T4 de Google Cloud, que proporcionaron la capacidad de c贸mputo necesaria.

Software

  • Librer铆as: Transformers, BitsAndBytes, Accelerate

Licencia

El modelo se publica bajo la licencia apache-2.0, que permite tanto el uso acad茅mico como comercial, siempre y cuando se acredite a los autores originales.

Citaci贸n

BibTeX:

@software{phi2_lc_model,
  author = {Sergio Chic贸n},
  title = {Phi-2-LC: Un Modelo para Simplificar Textos Administrativos},
  month = apr,
  year = 2024,
  url = {https://huggingface.co/somosnlp/phi-2-lc}
}

More Information

This project was developed during the Hackathon #Somos600M organized by SomosNLP. The model was trained using GPUs sponsored by HuggingFace.

Team:

Rub茅n de la Fuente Sergio Chic贸n Marta F. G贸mez