# 导入gradio
import os
import torch

import gradio as gr
# 导入transformers相关包
from transformers import pipeline

device = 0 if torch.cuda.is_available() else -1
# os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"
# 通过Interface加载pipeline并启动文本分类服务
# 如果无法通过这种方式加载，可以采用离线加载的方式
# gr.Interface.from_pipeline(pipeline("text-classification", model="uer/roberta-base-chinese-extractive-qa", device=device)).launch()

# 通过Interface加载pipeline并启动阅读理解服务
# 如果无法通过这种方式加载，可以采用离线加载的方式
# 将device参数移到pipeline函数中，并正确设置设备
gr.Interface.from_pipeline(pipeline("question-answering", model="uer/roberta-base-chinese-extractive-qa", device=device)).launch()