|
--- |
|
language: |
|
- es |
|
task_categories: |
|
- text-classification |
|
pretty_name: coser_provincias |
|
dataset_info: |
|
features: |
|
- name: prompt |
|
dtype: string |
|
- name: input |
|
dtype: string |
|
- name: output |
|
dtype: string |
|
splits: |
|
- name: train |
|
num_bytes: 1636280 |
|
num_examples: 1150 |
|
download_size: 219507 |
|
dataset_size: 1636280 |
|
configs: |
|
- config_name: default |
|
data_files: |
|
- split: train |
|
path: data/train-* |
|
--- |
|
|
|
|
|
![image/png](https://cdn-uploads.huggingface.co/production/uploads/649f10018dae75ef40fee89a/YmKWq6s-A5QTaRg52wzuk.png) |
|
|
|
|
|
|
|
## Detalles del Dataset |
|
|
|
### Descripción del Dataset |
|
|
|
<!-- Provide a longer summary of what this dataset is. --> |
|
|
|
Este corpus de instrucciones se ha desarrollado del corpus conversacional COSER - Corpus Oral y Sonoro del Español Rural (https://huggingface.co/datasets/cladsu/COSER-2024). |
|
La motivación principal de este proyecto es que las diferentes variedades lingüísticas del español de España (los datos recopilados son de península y archipiélagos) obtengan más visibilidad y, de esta manera, conseguir que la tecnología esté al alcance de todos los hispanohablantes desarrollando más modelos capaces de comprender o manejar datos que no sean del español estándar. |
|
|
|
|
|
- **Curated by:** Clara Adsuar, Álvaro Bueno, Diego de Benito, Alberto Hernández y Manuel Otero. |
|
- **Shared by:** Clara Adsuar, Álvaro Bueno, Diego de Benito, Alberto Hernández y Manuel Otero. |
|
- **Language(s) (NLP):** Python |
|
- **License:** Public |
|
|
|
### Dataset Sources |
|
|
|
<!-- Provide the basic links for the dataset. --> |
|
|
|
En esta sección incluyo los links para el acceso a los datos. En primer lugar, en la página web oficial del proyecto COSER tenemos en el apartado de Recursos > Descargas, la versión 4.0 del corpus actualizada con las entrevistas en formato xml (Pueyo Mena, F. Javier: Corpus oral y sonoro del español rural etiquetado. Versión 4.0 [marzo 2024]). |
|
En el repositorio de Huggingface disponemos de las 230 entrevistas que pueden descargarse de la página web pre-procesadas y en formato csv. |
|
Por último, en el repositorio de Github se puede acceder a los scripts que hemos usado para obtener la información requerida para cada tarea, las funciones creadas especialmente para este corpus y los scripts para la creación de prompts. |
|
|
|
- **Webpage:** http://www.corpusrural.es/ |
|
- **Repository Corpus Huggingface:** https://huggingface.co/datasets/cladsu/COSER-2024 |
|
- **Repository Scripts Github:** https://github.com/cladsu/SomosNLP2004-COSER-corpus |
|
|
|
|
|
## Estructura del Dataset |
|
|
|
<!-- This section provides a description of the dataset fields, and additional information about the dataset structure such as criteria used to create the splits, relationships between data points, etc. --> |
|
El archivo del dataset es un csv dividido en tres campos: prompt, input y output. El campo que se refiere a prompt es la construcción que presenta la tarea, en este caso tenemos cinco variantes de prompt de entrada: |
|
- "A continuación vas a recibir una entrevista en la que pueden participar varios entrevistadores (E), indicados como E1, E2, ..., y varios informadores (I), indicados como I1, I2, sucesivamente. Basándote en los rasgos lingüísticos mostrados por los informadores, determina la provincia española a la que pertenecen." |
|
- "Dime la provincia del siguiente texto basándose en sus características lingüísticas. Texto: " |
|
- "Dime la provincia del siguiente texto: " |
|
- "Con la información de la siguiente entrevista, dame el lugar al que pertenecen los hablantes: " |
|
- "Dime de qué lugar es el siguiente texto: " |
|
|
|
El primer prompt fue el template que usamos para describir la tarea al modelo de lenguaje Ollama (https://ollama.com/library/llama2:13b-chat-q4_0) para que nos proporcionara los distintos prompt de salida que veremos en el campo "output". |
|
Hemos decidido poner los prompt de entrada en un campo aparte y no incluirlo en el input porque puede dar más flexibilidad en el futuro para que puedan cambiarse o mejorarse. |
|
|
|
En "input" vamos a encontrar extractos de las entrevistas que están en el corpus de Huggingface (https://huggingface.co/datasets/cladsu/COSER-2024). |
|
Estos extractos corresponden a los 10 primeros turnos de cada entrevista. Estos extractos están repetidos cinco veces de forma que los diferentes prompts de entrada están vinculados con todos los extractos. |
|
|
|
"Output" se refiere al campo que nos da la información generada para la tarea. Es decir, en este caso la tarea es identificar provincias, por lo tanto el output que podemos observar en el dataset es directamente a qué provincia pertenecen los informadores. |
|
Este prompt generado también con Ollama (https://ollama.com/library/llama2:13b-chat-q4_0) no dispone de variantes, el prommpt de salida es: "La provincia a la que pertencen los informadores es {provincia}." |
|
|
|
|
|
## Creación del Dataset |
|
|
|
|
|
### Origen de los datos |
|
|
|
<!-- This section describes the source data (e.g. news text and headlines, social media posts, translated sentences, ...). --> |
|
|
|
El Corpus Oral y Sonoro del Español Rural - COSER (http://www.corpusrural.es/) consta de 1.772 entrevistas semidirigidas (1.910 horas grabadas) |
|
que datan de entre 1990 y 2022. Los individuos entrevistados provienen de zonas rurales y tienen una media de edad de 74 años, generalmente |
|
son personas que han recibido poca educación académica y han tenido poca movilidad geográfica. El porcentaje de hombres y mujeres |
|
entrevistados está equilibrado, siendo un 47'8% hombres y un 52'2% mujeres. Actualmente, se han registrado en el corpus 1.415 enclaves del territorio español (península y los dos archipiélagos). |
|
|
|
#### Data Collection and Processing |
|
|
|
<!-- This section describes the data collection and processing process such as data selection criteria, filtering and normalization methods, tools and libraries used, etc. --> |
|
|
|
El procesamiento y la recolección de los datos tuvo varias fases: creación de un dataset especializado para identificar provincias, creación de prompts de input/output y compilación final de los datos. |
|
|
|
##### Pre-procesamiento del Dataset |
|
|
|
En el pre-procesamiento del dataset, decidimos eliminar las etiquetas de marcas lingüísticas que están presentes en el corpus original. Algunas de ellas dan información sobre ciertos fenómenos lingüísticos, otras marcan ruidos, onomatopeyas, etc. |
|
También se han eliminado las etiquetas de Habla Simultánea y Habla Cruzada, con lo cual nos quedamos solo con lo que dice el locutor en su turno, sin interrupciones o información adicional de otros individuos. |
|
Para más información sobre las marcas y fenónemos que han sido eliminados de este dataset, visiten el repositorio de COSER (https://huggingface.co/datasets/cladsu/COSER-2024) en la sección de Descripción del Dataset. |
|
|
|
##### Dataset Identificación de Provincias |
|
|
|
Nuestra primera tarea fue definir una serie de funciones en Python para tratar los datos que teníamos en formato csv con todos los turnos de todas las entrevistas revisadas y anotadas manualmente (un total de 230 entrevistas). |
|
Así pues, creamos una función para cargar el archivo csv en un dataframe de pandas. Ya teniendo el dataframe pudimos aplicarle la función para obtener fragmentos de cada entrevista. |
|
Esta función necesita de entrada el dataframe, el nombre de la entrevista y el turno de inicio y final (es decir, qué turnos tiene que recoger). En nuestro caso, |
|
el número de turnos fue turn_ini = 0 y turn_fin = 10. Los fragmentos obtenidos tienen la información del texto (qué se dice en ese turno) y el speaker_id (quién habla en ese turno, marcado por E de entrevistador e I de informante). |
|
|
|
Después, desarrollamos una función que nos diera la información de la provincia donde se había realizado cada entrevista en concreto. |
|
De esta forma, cada fragmento tendría su provincia vinculada. |
|
|
|
Es importante mencionar que en este dataset elegimos visualizar los regionalismos presentes en el texto. Los regionalismos o variedades dialectales están señalizados en el corpus original a través de: (lenguaje dialectal = lenguaje estandar). |
|
De esta manera, implementamos una función para poder decidir si queremos quedarnos con las formas dialectales o las estándar. En nuestro caso, elegimos mantener las dialectales ya que la motivación original del corpus es dar visibilidad a las variedades lingüísticas menos representadas. |
|
Esta función recorre todos los valores de "text" (la transcripción de lo que se dice en cada turno) y filtra por el símbolo "=" para poder acceder a la desambiguación de los términos en su variedad dialectal. |
|
A continuación, vuelve a recuperar el texto guardando solo la forma dialectal. |
|
|
|
##### Creación de Prompts y Compilación final |
|
|
|
|
|
Para la creación de prompts del input creamos un script de Python. Este script usa el script de funciones mencionado en el apartado anterior para abrir el csv y convertirlo en un dataframe, mantener los regionalismos y obtener las provincias. |
|
Para desarrollar los prompts de salida, le proporcionamos una prompt template ("Acabas de leer una entrevista para la cual te han pedido determinar la provincia española a la que pertenecen los informadores, basándote en los rasgos lingüísticos que muestran durante la conversación. Redacta una respuesta breve y cordial para esta pregunta, sabiendo que la respuesta correcta es {provincia}. No incluyas ningún tipo de razonamiento posterior, ni ninguna hipótesis sobre los rasgos lingüísticos utilizados.") |
|
y le proporcionamos la variable provincia que recoge las distintas provincias de las entrevistas. |
|
Para generarlos usamos el LLM Ollama (llama2:13b-chat-q4_0) con una temperatura de "1.0". De estos prompts de input seleccionamos los cinco mejores, más acorde a la tarea y que estuvieran dotados de un lenguaje que sonara más natural. |
|
Cuando se obtienen todos los datos, prompts y sus respectivos fragmentos, se almacenan en un csv con la estructura de input, text y output. |
|
|
|
Los prompts del output, en este caso, tienen la misma estructura: "La provincia a la que pertenecen los informadores es {provincia}". |
|
|
|
## Citas |
|
|
|
<!-- If there is a paper or blog post introducing the dataset, the APA and Bibtex information for that should go in this section. --> |
|
|
|
Versión 4.0 (Marzo 2024) Corpus COSER: |
|
- Pueyo Mena, F. Javier: Corpus oral y sonoro del español rural etiquetado. Versión 4.0 [marzo 2024] |
|
|
|
Github COSER SomosNLP2024: |
|
- Cladsu. (2024). SomosNLP2004-COSER-corpus. Recuperado de https://github.com/cladsu/SomosNLP2004-COSER-corpus |
|
|
|
Huggingface COSER corpus: |
|
- Cladsu. (2024). COSER-2024. Hugging Face. Recuperado de https://huggingface.co/datasets/cladsu/COSER-2024 |
|
|
|
|
|
## Dataset Card Authors |
|
|
|
Clara Adsuar - https://huggingface.co/cladsu |
|
Álvaro Bueno - https://huggingface.co/AlvaroBueno |
|
Diego de Benito - https://huggingface.co/dbenitog |
|
Alberto Hernández - https://huggingface.co/alherra26 |
|
Manuel Otero - https://huggingface.co/mxnuueel |
|
|
|
|
|
## Dataset Card Contact |
|
|
|
En caso de tener cualquier duda sobre este proyecto, puede contactar con cualquiera de los Dataset Card Authors. |
|
Cualquiera de nosotros puede contestar sus dudas, ya que ha sido un trabajo colaborativo entre todos los miembros. |