Spaces:
Sleeping
Sleeping
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM | |
# Путь к сохранённой модели | |
model_name = "./results" | |
try: | |
# Попытка загрузить модель и токенизатор | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
model = AutoModelForSeq2SeqLM.from_pretrained(model_name) | |
except Exception as e: | |
print(f"Ошибка при загрузке модели: {e}") | |
print("Проверьте содержимое папки './results'.") | |
exit() | |
# Функция для генерации ответов | |
def generate_answer(input_text): | |
inputs = tokenizer(input_text, return_tensors="pt", max_length=128, truncation=True) | |
outputs = model.generate(**inputs, max_length=128) | |
return tokenizer.decode(outputs[0], skip_special_tokens=True) | |
# Тестирование модели | |
if __name__ == "__main__": | |
while True: | |
question = input("Введите вопрос (или 'exit' для выхода): ") | |
if question.lower() in ["exit", "quit"]: | |
print("Завершение работы.") | |
break | |
answer = generate_answer(question) | |
print(f"Ответ модели: {answer}") |