Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,33 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
```python
|
2 |
+
from transformers import AutoTokenizer, T5ForConditionalGeneration
|
3 |
+
|
4 |
+
model_name = 'cabir40/t5-v1.1-base-dutch-cased_inversion'
|
5 |
+
|
6 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
7 |
+
|
8 |
+
model = T5ForConditionalGeneration.from_pretrained(model_name)
|
9 |
+
```
|
10 |
+
|
11 |
+
|
12 |
+
```python
|
13 |
+
document =["Zonder relatie mensen zijn gelukkig?",
|
14 |
+
"Nu steeds meer Nederlanders worden ouder dan 100 jaar.",
|
15 |
+
"Gewoon ik open mijn ogen wijd, zodat het lijkt of ik goed luister.",
|
16 |
+
"Dan het wordt moeilijk, als anderen beginnen over andere dingen te praten",
|
17 |
+
]
|
18 |
+
|
19 |
+
inputs = tokenizer(document, return_tensors="pt", padding=True)
|
20 |
+
|
21 |
+
output_sequences = model_from_local.generate(
|
22 |
+
input_ids=inputs["input_ids"],
|
23 |
+
attention_mask=inputs["attention_mask"] )
|
24 |
+
|
25 |
+
tokenizer.batch_decode(output_sequences, skip_special_tokens=True)
|
26 |
+
```
|
27 |
+
|
28 |
+
```bash
|
29 |
+
['Zonder relatie zijn mensen gelukkig?',
|
30 |
+
'Nu worden steeds meer Nederlanders ouder dan 100 jaar.',
|
31 |
+
'Gewoon open ik mijn ogen wijd, zodat het lijkt of ik goed luister.',
|
32 |
+
'Dan wordt het moeilijk, als anderen beginnen over andere dingen te praten Dan']
|
33 |
+
```
|