capybara_fas_ai / app.py
Fas1's picture
Add Space config for Hugging Face12
639b1e8
import os
import gradio as gr
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
# Токен, если модель приватная
hf_token = os.getenv("HF_TOKEN", None)
model_path = "./capybara-finetuned" # или HF-репозиторий, например: "NousResearch/Nous-Capybara-3B-V1.9"
# Загружаем модель и токенизатор
tokenizer = AutoTokenizer.from_pretrained(
model_path,
token=hf_token,
trust_remote_code=True,
use_fast=True,
)
model = AutoModelForCausalLM.from_pretrained(
model_path,
token=hf_token,
torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
device_map="auto",
trust_remote_code=True,
)
# Создаём пайплайн
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer)
# Функция классификации
def classify(text):
prompt = f"### Вопрос:\n{text}\n\n### Класс:"
try:
result = pipe(prompt, max_new_tokens=10, do_sample=False)[0]["generated_text"]
label = result.split("### Класс:")[-1].strip().split()[0].lower()
return f"🔍 Класс: **{label}**"
except Exception as e:
return f"❌ Ошибка: {str(e)}"
# Интерфейс Gradio
iface = gr.Interface(
fn=classify,
inputs=gr.Textbox(lines=4, placeholder="Введите сообщение..."),
outputs="markdown",
title="Capybara Text Classifier 🦫",
description="Классификация текста как 'запрос' или 'реклама' с помощью Capybara-3B",
# enable_api=True, # Разрешаем вызывать данный Interface извне
# api_name="/classify" # Название эндпоинта (путь для client.predict)
)
app, local_url, share_url = iface.launch(share=True, ssr_mode=False)