import gradio as gr # make function using import pip to install torch import pip pip.main(['install', 'torch']) pip.main(['install', 'transformers']) import torch import transformers # saved_model def load_model(model_path): saved_data = torch.load( model_path, map_location="cpu" ) bart_best = saved_data["model"] train_config = saved_data["config"] tokenizer = transformers.PreTrainedTokenizerFast.from_pretrained('gogamza/kobart-base-v1') ## Load weights. model = transformers.BartForConditionalGeneration.from_pretrained('gogamza/kobart-base-v1') model.load_state_dict(bart_best) return model, tokenizer # main def inference(prompt): model_path = "./kobart-model-poem.pth" model, tokenizer = load_model( model_path=model_path ) input_ids = tokenizer.encode(prompt) input_ids = torch.tensor(input_ids) input_ids = input_ids.unsqueeze(0) output = model.generate(input_ids) output = tokenizer.decode(output[0], skip_special_tokens=True) return output demo = gr.Interface( fn=inference, inputs="text", outputs="text", #return 값 examples=[ "작은 씨앗 하나 길가에 떨어졌어요\n안돼요 안돼요 모두들 밟으니까요\n작은 씨앗 하나 돌밭에 떨어졌어요\n싫어요 싫어요 크게 자랄 수 없어요\n작은 씨앗 하나 가시밭에 떨어졌어요\n아 야야, 아파요 숨을 쉴 수가 없어요\n작은 씨앗 하나 좋은 밭에 떨어졌어요\n좋아요 좋아요 잘 자라서 좋은 나무 되겠어요" ] ).launch() # launch(share=True)를 설정하면 외부에서 접속 가능한 링크가 생성됨 demo.launch()