mcsabai's picture
Update README.md
93d80a8
|
raw
history blame
2.58 kB

Hugging Face's logo Hugging Face Search models, datasets, users... Models Datasets Spaces Docs Solutions Pricing

Hugging Face is way more fun with friends and colleagues! 🤗 Join an organization

mcsabai / huBert-fine-tuned-hungarian-squadv1 Copied like 1 Question Answering PyTorch TensorFlow Transformers hu bert AutoTrain Compatible Model card Files and versions Community Settings huBert-fine-tuned-hungarian-squadv1 / README.md mcsabai's picture mcsabai Update README.md 4d72ef9 about 2 months ago raw history blame edit delete Safe 2.03 kB

language: hu thumbnail: tags: - question-answering - bert widget: - text: "Melyik folyó szeli ketté Budapestet?" context: "Magyarország fővárosát, Budapestet a Duna folyó szeli ketté. A XIX. században épült Lánchíd a dimbes-dombos budai oldalt köti össze a sík Pesttel. A Várdomb oldalában futó siklóval juthatunk fel a budai Óvárosba, ahol a Budapesti Történeti Múzeum egészen a római időkig visszavezetve mutatja be a városi életet. A Szentháromság tér ad otthont a XIII. századi Mátyás-templomnak és a Halászbástya lőtornyainak, amelyekből messzire ellátva gyönyörködhetünk a városban." - text: "Mivel juthatunk fel az Óvárosba?" context: "Magyarország fővárosát, Budapestet a Duna folyó szeli ketté. A XIX. században épült Lánchíd a dimbes-dombos budai oldalt köti össze a sík Pesttel. A Várdomb oldalában futó siklóval juthatunk fel a budai Óvárosba, ahol a Budapesti Történeti Múzeum egészen a római időkig visszavezetve mutatja be a városi életet. A Szentháromság tér ad otthont a XIII. századi Mátyás-templomnak és a Halászbástya lőtornyainak, amelyekből messzire ellátva gyönyörködhetünk a városban."

MODEL DESCRIPTION

huBERT base model (cased) fine-tuned on SQuAD v1

Model in action

  • Fast usage with pipelines:
from transformers import pipeline
qa_pipeline = pipeline(
    "question-answering",
    model="mcsabai/huBert-fine-tuned-hungarian-squadv1",
    tokenizer="mcsabai/huBert-fine-tuned-hungarian-squadv1"
)
predictions = qa_pipeline({
    'context': "Anita vagyok és Budapesten élek már több mint 4 éve.",
    'question': "Hol lakik Anita?"
})
print(predictions)
# output:
# {'score': 0.9892364144325256, 'start': 16, 'end': 26, 'answer': 'Budapesten'}