mcsabai's picture
Update README.md
93d80a8
|
raw
history blame
2.58 kB
Hugging Face's logo
Hugging Face
Search models, datasets, users...
Models
Datasets
Spaces
Docs
Solutions
Pricing
Hugging Face is way more fun with friends and colleagues! 🤗 Join an organization
mcsabai
/
huBert-fine-tuned-hungarian-squadv1 Copied
like
1
Question Answering
PyTorch
TensorFlow
Transformers
hu
bert
AutoTrain Compatible
Model card
Files and versions
Community
Settings
huBert-fine-tuned-hungarian-squadv1
/
README.md
mcsabai's picture
mcsabai
Update README.md
4d72ef9
about 2 months ago
raw
history
blame
edit
delete
Safe
2.03 kB
---
language: hu
thumbnail:
tags:
- question-answering
- bert
widget:
- text: "Melyik folyó szeli ketté Budapestet?"
context: "Magyarország fővárosát, Budapestet a Duna folyó szeli ketté. A XIX. században épült Lánchíd a dimbes-dombos budai oldalt köti össze a sík Pesttel. A Várdomb oldalában futó siklóval juthatunk fel a budai Óvárosba, ahol a Budapesti Történeti Múzeum egészen a római időkig visszavezetve mutatja be a városi életet. A Szentháromság tér ad otthont a XIII. századi Mátyás-templomnak és a Halászbástya lőtornyainak, amelyekből messzire ellátva gyönyörködhetünk a városban."
- text: "Mivel juthatunk fel az Óvárosba?"
context: "Magyarország fővárosát, Budapestet a Duna folyó szeli ketté. A XIX. században épült Lánchíd a dimbes-dombos budai oldalt köti össze a sík Pesttel. A Várdomb oldalában futó siklóval juthatunk fel a budai Óvárosba, ahol a Budapesti Történeti Múzeum egészen a római időkig visszavezetve mutatja be a városi életet. A Szentháromság tér ad otthont a XIII. századi Mátyás-templomnak és a Halászbástya lőtornyainak, amelyekből messzire ellátva gyönyörködhetünk a városban."
---
## MODEL DESCRIPTION
huBERT base model (cased) fine-tuned on SQuAD v1
- huBert model + Tokenizer: https://huggingface.co/SZTAKI-HLT/hubert-base-cc
- Hungarian SQUAD v1 dataset: Machine Translated SQuAD dataset (Google Translate API)
- This is a demo model. Date of publication: 2022.03.27.
## Model in action
- Fast usage with pipelines:
```python
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mcsabai/huBert-fine-tuned-hungarian-squadv1",
tokenizer="mcsabai/huBert-fine-tuned-hungarian-squadv1"
)
predictions = qa_pipeline({
'context': "Anita vagyok és Budapesten élek már több mint 4 éve.",
'question': "Hol lakik Anita?"
})
print(predictions)
# output:
# {'score': 0.9892364144325256, 'start': 16, 'end': 26, 'answer': 'Budapesten'}
```