import gradio as gr import torch from transformers import AutoModelForCausalLM, PreTrainedTokenizer from safetensors.torch import load_file # 모델과 토크나이저 로드 model = load_file("./model.safetensors") tokenizer = PreTrainedTokenizer.from_pretrained("./tokenizer") # tokenizer.json이 위치한 폴더를 지정 # 모델 예측 함수 정의 def generate_text(prompt): inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_length=100) return tokenizer.decode(outputs[0], skip_special_tokens=True) # Gradio 인터페이스 설정 iface = gr.Interface(fn=generate_text, inputs="text", outputs="text") # 앱 실행 if __name__ == "__main__": iface.launch()