from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained('kien-vu-uet/finetuned-phobert-passage-rerank-best-eval')
model = AutoModel.from_pretrained('kien-vu-uet/finetuned-phobert-passage-rerank-best-eval')
question = 'Cái gì đã cướp đi người trí_thức yêu nước và tận_tuỵ Đặng_Văn_Ngữ ? Sự dụ_dỗ của kẻ địch .'
context = 'Năm 1948 , bác_sĩ Đặng_Văn_Ngữ rời Nhật_Bản về nước tham_gia kháng_chiến chống thực_dân Pháp . Để tránh bị địch phát_hiện , ông phải vòng từ Nhật_Bản qua Thái_Lan , sang Lào , về Nghệ_An , rồi từ Nghệ_An lên Việt_Bắc . Dù băng qua rừng rậm hay suối sâu , lúc_nào ông cũng giữ bên mình chiếc va_li đựng nấm pê-ni-xi-lin mà ông gây được từ bên Nhật . Nhờ va_li nấm này , bộ_đội ta đã chế được thuốc chữa cho thương_binh . Năm 1967 , lúc đã gần 60 tuổi , ông lại lên_đường ra_mặt trận chống Mĩ cứu nước . Ở chiến_trường , bệnh sốt_rét hoành_hành , đồng_bào và chiến_sĩ cần có ông . Sau nhiều ngày khổ_công nghiên_cứu , ông chế ra thuốc chống sốt_rét và tự tiêm thử vào cơ_thể mình những liều thuốc đầu_tiên . Thuốc sản_xuất ra , bước_đầu có hiệu_quả cao . Nhưng giữa lúc ấy , một trận bom của kẻ_thù đã cướp đi người trí_thức yêu nước và tận_tuỵ của chúng_ta .'
tokenized = tokenizer(text=question, text_pair=context, return_tensors='pt')
outputs = model(**tokenized)