Spaces:
Running
Running
File size: 1,899 Bytes
8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 8c4eb8a 3825b18 b3b9e46 3825b18 8c4eb8a 639b1e8 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
import os
import gradio as gr
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
# Токен, если модель приватная
hf_token = os.getenv("HF_TOKEN", None)
model_path = "./capybara-finetuned" # или HF-репозиторий, например: "NousResearch/Nous-Capybara-3B-V1.9"
# Загружаем модель и токенизатор
tokenizer = AutoTokenizer.from_pretrained(
model_path,
token=hf_token,
trust_remote_code=True,
use_fast=True,
)
model = AutoModelForCausalLM.from_pretrained(
model_path,
token=hf_token,
torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
device_map="auto",
trust_remote_code=True,
)
# Создаём пайплайн
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer)
# Функция классификации
def classify(text):
prompt = f"### Вопрос:\n{text}\n\n### Класс:"
try:
result = pipe(prompt, max_new_tokens=10, do_sample=False)[0]["generated_text"]
label = result.split("### Класс:")[-1].strip().split()[0].lower()
return f"🔍 Класс: **{label}**"
except Exception as e:
return f"❌ Ошибка: {str(e)}"
# Интерфейс Gradio
iface = gr.Interface(
fn=classify,
inputs=gr.Textbox(lines=4, placeholder="Введите сообщение..."),
outputs="markdown",
title="Capybara Text Classifier 🦫",
description="Классификация текста как 'запрос' или 'реклама' с помощью Capybara-3B",
# enable_api=True, # Разрешаем вызывать данный Interface извне
# api_name="/classify" # Название эндпоинта (путь для client.predict)
)
app, local_url, share_url = iface.launch(share=True, ssr_mode=False) |