import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer # Указываем имя твоей модели на Hugging Face model_name = "victor-chur/dog-shop-model" # Загружаем токенизатор и модель tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # Функция для генерации ответа с настройками для вариативности def generate_response(prompt): inputs = tokenizer(prompt, return_tensors="pt") reply_ids = model.generate( inputs['input_ids'], max_length=100, pad_token_id=tokenizer.eos_token_id, temperature=0.5, top_p=0.8, do_sample=True ) response = tokenizer.decode(reply_ids[0], skip_special_tokens=True) return response # Интерфейс Gradio для тестирования модели iface = gr.Interface(fn=generate_response, inputs="text", outputs="text", title="Telegram Bot Model") # Запуск приложения iface.launch()