Update README.md
Browse files
README.md
CHANGED
@@ -175,7 +175,7 @@ from transformers import pipeline
|
|
175 |
from datasets import load_dataset
|
176 |
|
177 |
generator = pipeline(model="google/gemma-2b-it",device_map="auto")
|
178 |
-
dataset = load_dataset("somosnlp/
|
179 |
|
180 |
outputs = generator(dataset[0]["prompt"], return_full_text=False,max_length=4096)
|
181 |
print(outputs)
|
@@ -183,10 +183,10 @@ print(outputs)
|
|
183 |
|
184 |
El dataset incluye los siguientes campos:
|
185 |
- **ID**: id del ejemplo
|
186 |
-
- **
|
187 |
-
- **
|
188 |
-
- **
|
189 |
-
- **
|
190 |
|
191 |
# Evaluación masiva de Modelos de Lenguaje
|
192 |
|
|
|
175 |
from datasets import load_dataset
|
176 |
|
177 |
generator = pipeline(model="google/gemma-2b-it",device_map="auto")
|
178 |
+
dataset = load_dataset("somosnlp/NoticIA-it",split="test")
|
179 |
|
180 |
outputs = generator(dataset[0]["prompt"], return_full_text=False,max_length=4096)
|
181 |
print(outputs)
|
|
|
183 |
|
184 |
El dataset incluye los siguientes campos:
|
185 |
- **ID**: id del ejemplo
|
186 |
+
- **titular**: Titular del artículo
|
187 |
+
- **respuesta**: Resumen escrito por un humano
|
188 |
+
- **pregunta**: Prompt listo para servir de input a un modelo de lenguaje
|
189 |
+
- **texto**: Texto del artículo, obtenido del HTML.
|
190 |
|
191 |
# Evaluación masiva de Modelos de Lenguaje
|
192 |
|