RagQuAS / README.md
gonzalo-santamaria-iic's picture
Upload dataset
dc284cf verified
|
raw
history blame
No virus
2.98 kB
---
language:
- es
license:
- cc-by-nc-sa-4.0
multilinguality:
- monolingual
task_categories:
- question-answering
- text-retrieval
task_ids:
- document-retrieval
- extractive-qa
pretty_name: RAGMiscContextual
tags:
- spanish
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
dataset_info:
features:
- name: topic
dtype: string
- name: answer
dtype: string
- name: question
dtype: string
- name: variant
dtype: string
- name: context_1
dtype: string
- name: context_2
dtype: string
- name: context_3
dtype: string
- name: context_4
dtype: string
- name: context_5
dtype: string
- name: link_1
dtype: string
- name: link_2
dtype: string
- name: link_3
dtype: string
- name: link_4
dtype: string
- name: link_5
dtype: string
- name: text_1
dtype: string
- name: text_2
dtype: string
- name: text_3
dtype: string
- name: text_4
dtype: string
- name: text_5
dtype: string
splits:
- name: train
num_bytes: 6905998
num_examples: 201
download_size: 1012468
dataset_size: 6905998
---
# Retrieval-Question-Answering en castellano
Corpus realizados de forma manual por dos lingüistas computacionales. La metodología de corpus ha consistido en el acuerdo y diseño de las preguntas a realizar sobre los datos y la resolución de dudas. Las respuestas han sido escritas por cada anotador.
Columnas:
- **question:** pregunta sobre los documentos. Hay 5 variantes disponibles que derivan hacia la misma respuesta.
- **answer:** respuesta del sistema a cualquiera de las variantes.
- **context_i:** contexto del documento i que se ha utilizado para responder a la pregunta en cualquiera de las variantes.
- **text_i:** texto completo del documento i.
- **link_i:** enlace del documento i.
## Guía de uso
Para cargar el dataset:
```python
from datasets import load_dataset
dataset = load_dataset("IIC/RAGMiscContextual")
```
Si se quiere tener todos los documentos en una única columna, se puede hacer lo siguiente:
```python
dataset = dataset.map(
lambda x : {
"documents": {f"document_{i}":{"context":x[f"context_{i}"],"full_text":x[f"text_{i}"],"url":x[f"link_{i}"]}for i in range(1,6)}
},
remove_columns = sum([[f"context_{i}",f"text_{i}",f"link_{i}"] for i in range(1,6)],[])
)
```
De esta manera, generaremos una nueva columna dentro del dataset, formada por diccionarios con la siguiente estructura:
```python
{
"document_1" : {"context":"contenido del contexto.","full_text":"texto completo del enlace.","url":"enlace."},
.
.
.
"document_n" : {"context":"contenido del contexto.","full_text":"texto completo del enlace.","url":"enlace."},
}
```
En cada diccionario estará contenida la base de datos con todos los documentos.
## Licencia
Este dataset está bajo la licencia de uso no comercial [CC BY-NC-SA 4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/).