Spaces:
Running
Running
import os | |
import gradio as gr | |
import torch | |
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline | |
# Токен, если модель приватная | |
hf_token = os.getenv("HF_TOKEN", None) | |
model_path = "./capybara-finetuned" # или HF-репозиторий, например: "NousResearch/Nous-Capybara-3B-V1.9" | |
# Загружаем модель и токенизатор | |
tokenizer = AutoTokenizer.from_pretrained( | |
model_path, | |
token=hf_token, | |
trust_remote_code=True, | |
use_fast=True, | |
) | |
model = AutoModelForCausalLM.from_pretrained( | |
model_path, | |
token=hf_token, | |
torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32, | |
device_map="auto", | |
trust_remote_code=True, | |
) | |
# Создаём пайплайн | |
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer) | |
# Функция классификации | |
def classify(text): | |
prompt = f"### Вопрос:\n{text}\n\n### Класс:" | |
try: | |
result = pipe(prompt, max_new_tokens=10, do_sample=False)[0]["generated_text"] | |
label = result.split("### Класс:")[-1].strip().split()[0].lower() | |
return f"🔍 Класс: **{label}**" | |
except Exception as e: | |
return f"❌ Ошибка: {str(e)}" | |
# Интерфейс Gradio | |
iface = gr.Interface( | |
fn=classify, | |
inputs=gr.Textbox(lines=4, placeholder="Введите сообщение..."), | |
outputs="markdown", | |
title="Capybara Text Classifier 🦫", | |
description="Классификация текста как 'запрос' или 'реклама' с помощью Capybara-3B", | |
# enable_api=True, # Разрешаем вызывать данный Interface извне | |
# api_name="/classify" # Название эндпоинта (путь для client.predict) | |
) | |
app, local_url, share_url = iface.launch(share=True, ssr_mode=False) |