Spaces:
Runtime error
Runtime error
### How to use | |
You can use this model directly with a pipeline for masked language modeling: | |
```python | |
>>> from transformers import pipeline | |
>>> unmasker = pipeline('fill-mask', model='flax-community/roberta-hindi') | |
>>> unmasker("हम आपके सुखद <mask> की कामना करते हैं") | |
[{'score': 0.3310680091381073, | |
'sequence': 'हम आपके सुखद सफर की कामना करते हैं', | |
'token': 1349, | |
'token_str': ' सफर'}, | |
{'score': 0.15317578613758087, | |
'sequence': 'हम आपके सुखद पल की कामना करते हैं', | |
'token': 848, | |
'token_str': ' पल'}, | |
{'score': 0.07826550304889679, | |
'sequence': 'हम आपके सुखद समय की कामना करते हैं', | |
'token': 453, | |
'token_str': ' समय'}, | |
{'score': 0.06304813921451569, | |
'sequence': 'हम आपके सुखद पहल की कामना करते हैं', | |
'token': 404, | |
'token_str': ' पहल'}, | |
{'score': 0.058322224766016006, | |
'sequence': 'हम आपके सुखद अवसर की कामना करते हैं', | |
'token': 857, | |
'token_str': ' अवसर'}] | |
``` | |
Alternatively, the model could be loaded with AutoModels (& could then be fine-tuned on downstream tasks): | |
``` | |
from transformers import AutoTokenizer, AutoModelForMaskedLM | |
tokenizer = AutoTokenizer.from_pretrained("flax-community/roberta-hindi") | |
model = AutoModelForMaskedLM.from_pretrained("flax-community/roberta-hindi") | |
``` |