Spaces:
Build error
Build error
import torch | |
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM | |
import gradio as gr | |
example_context = "ফলস্বরূপ, ১৯৭৯ সালে, সনি এবং ফিলিপস একটি নতুন ডিজিটাল অডিও ডিস্ক ডিজাইন করার জন্য প্রকৌশলীদের একটি যৌথ টাস্ক ফোর্স গঠন করে। ইঞ্জিনিয়ার কিস শুহামার ইমমিনক এবং তোশিতাদা দোই এর নেতৃত্বে, গবেষণাটি লেজার এবং অপটিক্যাল ডিস্ক প্রযুক্তিকে এগিয়ে নিয়ে যায়। এক বছর পরীক্ষা-নিরীক্ষা ও আলোচনার পর টাস্ক ফোর্স রেড বুক সিডি-ডিএ স্ট্যান্ডার্ড তৈরি করে। প্রথম প্রকাশিত হয় ১৯৮০ সালে। আইইসি কর্তৃক ১৯৮৭ সালে আন্তর্জাতিক মান হিসেবে আনুষ্ঠানিকভাবে এই মান গৃহীত হয় এবং ১৯৯৬ সালে বিভিন্ন সংশোধনী মানের অংশ হয়ে ওঠে।'" | |
example_answer = "১৯৮০" | |
def choose_model(model_choice): | |
if model_choice=="mt5-small": | |
return "jannatul17/squad-bn-qgen-mt5-small-v1" | |
elif model_choice=="mt5-base": | |
return "Tahsin-Mayeesha/squad-bn-mt5-base2" | |
else : | |
return "jannatul17/squad-bn-qgen-banglat5-v1" | |
def generate_questions(model_choice,context,answer,numReturnSequences=1,num_beams=None,do_sample=False,top_p=None,top_k=None,temperature=None): | |
model_name = choose_model(model_choice) | |
model = AutoModelForSeq2SeqLM.from_pretrained(model_name) | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
text='answer: '+answer + ' context: ' + context | |
text_encoding = tokenizer.encode_plus( | |
text,return_tensors="pt" | |
) | |
model.eval() | |
generated_ids = model.generate( | |
input_ids=text_encoding['input_ids'], | |
attention_mask=text_encoding['attention_mask'], | |
max_length=120, | |
num_beams=num_beams, | |
do_sample=do_sample, | |
top_k = top_k, | |
top_p = top_p, | |
temperature = temperature, | |
num_return_sequences=numReturnSequences | |
) | |
text = [] | |
for id in generated_ids: | |
text.append(tokenizer.decode(id,skip_special_tokens=True,clean_up_tokenization_spaces=True).replace('question: ',' ')) | |
return " ".join(text) | |
demo = gr.Interface(fn=generate_questions, inputs=[gr.Dropdown(label="Model", choices=["mt5-small","mt5-base","banglat5"],value="banglat5"), | |
gr.Textbox(label='Context'), | |
gr.Textbox(label='Answer'), | |
# hyperparameters | |
gr.Slider(1, 3, 1, step=1, label="Num return Sequences"), | |
# beam search | |
gr.Slider(1, 10,value=None, step=1, label="Beam width"), | |
# top-k/top-p | |
gr.Checkbox(label="Do Random Sample",value=False), | |
gr.Slider(0, 50, value=None, step=1, label="Top K"), | |
gr.Slider(0, 1, value=None, label="Top P/Nucleus Sampling"), | |
gr.Slider(0.01, 1, value=None, label="Temperature") ] , | |
# output | |
outputs=gr.Textbox(label='Question'), | |
examples=[["banglat5",example_context,example_answer]], | |
cache_examples=False, | |
title="Bangla Question Generation", | |
description="Get the Question from given Context and an Answer") | |
demo.launch() | |