DocUA's picture
classes.json
6df9305
raw
history blame
11.1 kB
import gradio as gr
from sdc_classifier import SDCClassifier
from dotenv import load_dotenv
import json
import os
# Load environment variables
load_dotenv()
def initialize_environment():
"""Ініціалізація середовища при першому запуску"""
DEFAULT_CLASSES_FILE = "classes.json"
DEFAULT_SIGNATURES_FILE = "signatures.npz"
CACHE_FILE = "embeddings_cache.db"
# Перевіряємо наявність необхідних файлів
if not os.path.exists(DEFAULT_CLASSES_FILE):
print(f"ПОМИЛКА: Файл {DEFAULT_CLASSES_FILE} не знайдено!")
return False
if not os.path.exists(DEFAULT_SIGNATURES_FILE):
print("Signatures не знайдено. Створюємо нові...")
try:
classifier = SDCClassifier()
classifier.load_classes(DEFAULT_CLASSES_FILE)
result = classifier.initialize_signatures(
force_rebuild=True,
signatures_file=DEFAULT_SIGNATURES_FILE
)
print(f"Результат ініціалізації: {result}")
return True
except Exception as e:
print(f"ПОМИЛКА при ініціалізації: {str(e)}")
return False
return True
def main():
# Константи файлів
DEFAULT_CLASSES_FILE = "classes.json"
DEFAULT_SIGNATURES_FILE = "signatures.npz"
CACHE_FILE = "embeddings_cache.db"
# Перевіряємо та ініціалізуємо середовище
if not initialize_environment():
print("Не вдалося ініціалізувати середовище")
return
# Ініціалізуємо класифікатор
classifier = SDCClassifier()
print("Завантаження початкових класів...")
# Перевірка наявності кешу
if not os.path.exists(CACHE_FILE):
print("Кеш ембедінгів не знайдено. Створюємо новий...")
# Завантажуємо класи і створюємо нові signatures
try:
classifier.load_initial_state(DEFAULT_CLASSES_FILE, DEFAULT_SIGNATURES_FILE)
result = classifier.initialize_signatures(
force_rebuild=True, # Примусово будуємо нові signatures
signatures_file=DEFAULT_SIGNATURES_FILE
)
print(f"Результат ініціалізації: {result}")
except Exception as e:
print(f"ПОМИЛКА при ініціалізації: {str(e)}")
return
else:
# Якщо кеш існує, просто завантажуємо початковий стан
try:
classifier.load_initial_state(DEFAULT_CLASSES_FILE, DEFAULT_SIGNATURES_FILE)
except Exception as e:
print(f"ПОМИЛКА при завантаженні початкового стану: {str(e)}")
return
with gr.Blocks() as demo:
gr.Markdown("# SDC Classifier з Gradio")
with gr.Tabs():
# Вкладка 1: Single Text Testing
with gr.TabItem("Тестування одного тексту"):
with gr.Row():
with gr.Column():
text_input = gr.Textbox(
label="Введіть текст для аналізу",
lines=5,
placeholder="Введіть текст..."
)
threshold_slider = gr.Slider(
minimum=0.0,
maximum=1.0,
value=0.3,
step=0.05,
label="Поріг впевненості"
)
single_process_btn = gr.Button("Проаналізувати")
with gr.Column():
result_text = gr.JSON(label="Результати аналізу")
# Налаштування моделі
with gr.Accordion("Налаштування моделі", open=False):
with gr.Row():
model_choice = gr.Dropdown(
choices=["text-embedding-3-large","text-embedding-3-small"],
value="text-embedding-3-large",
label="OpenAI model"
)
json_file = gr.File(
label="Завантажити новий JSON з класами",
file_types=[".json"]
)
force_rebuild = gr.Checkbox(
label="Примусово перебудувати signatures",
value=False
)
with gr.Row():
build_btn = gr.Button("Оновити signatures")
build_out = gr.Label(label="Статус signatures")
cache_stats = gr.JSON(label="Статистика кешу", value={})
# Вкладка 2: Batch Processing
with gr.TabItem("Пакетна обробка"):
gr.Markdown("## 1) Завантаження даних")
with gr.Row():
csv_input = gr.Textbox(
value="messages.csv",
label="CSV-файл"
)
emb_input = gr.Textbox(
value="embeddings.npy",
label="Numpy Embeddings"
)
load_btn = gr.Button("Завантажити дані")
load_output = gr.Label(label="Результат завантаження")
gr.Markdown("## 2) Класифікація")
with gr.Row():
filter_in = gr.Textbox(label="Фільтр (опціонально)")
batch_threshold = gr.Slider(
minimum=0.0,
maximum=1.0,
value=0.3,
step=0.05,
label="Поріг впевненості"
)
classify_btn = gr.Button("Класифікувати")
classify_out = gr.Dataframe(label="Результат (Message / Target / Scores)")
gr.Markdown("## 3) Зберегти результати")
save_btn = gr.Button("Зберегти розмічені дані")
save_out = gr.Label()
gr.Markdown("""
### Інструкція:
1. У вкладці "Налаштування моделі" можна:
- Завантажити новий JSON файл з класами
- Вибрати модель для embeddings
- Примусово перебудувати signatures
2. Після зміни класів натисніть "Оновити signatures"
3. Використовуйте повзунок "Поріг впевненості" для фільтрації результатів
4. На вкладці "Пакетна обробка" можна аналізувати багато повідомлень
5. Результати можна зберегти в CSV файл
""")
# Підключення обробників подій
def update_with_file(file, model_name, force):
if file is None:
# Відновлюємо базовий стан якщо файл видалено
classifier.restore_base_state()
return ("Відновлено базовий набір класів", classifier.get_cache_stats())
try:
# Для роботи з gradio File компонентом
if hasattr(file, 'name'): # Якщо це файловий об'єкт
with open(file.name, 'r', encoding='utf-8') as f:
new_classes = json.load(f)
else: # Якщо це строка
new_classes = json.loads(file)
if not isinstance(new_classes, dict):
return ("Помилка: JSON повинен містити словник класів", classifier.get_cache_stats())
# Завантажуємо нові класи без перезапису файлу за замовчуванням
classifier.load_classes(new_classes)
# Створюємо тимчасові signatures
result = classifier.initialize_signatures(
model_name=model_name,
signatures_file=None, # Не зберігаємо у файл
force_rebuild=True # Завжди перебудовуємо для нових класів
)
return (f"Тимчасові класи завантажено. {result}", classifier.get_cache_stats())
except json.JSONDecodeError:
return ("Помилка: Неправильний формат JSON файлу", classifier.get_cache_stats())
except Exception as e:
return (f"Помилка при оновленні: {str(e)}", classifier.get_cache_stats())
single_process_btn.click(
fn=lambda text, threshold: classifier.process_single_text(text, threshold),
inputs=[text_input, threshold_slider],
outputs=result_text
)
build_btn.click(
fn=update_with_file,
inputs=[json_file, model_choice, force_rebuild],
outputs=[build_out, cache_stats]
)
load_btn.click(
fn=lambda csv, emb: classifier.load_data(csv, emb),
inputs=[csv_input, emb_input],
outputs=load_output
)
classify_btn.click(
fn=lambda filter_str, threshold: classifier.classify_rows(filter_str, threshold),
inputs=[filter_in, batch_threshold],
outputs=classify_out
)
save_btn.click(
fn=lambda: classifier.save_results("messages_with_labels.csv"),
inputs=[],
outputs=save_out
)
demo.launch(server_name="0.0.0.0", server_port=7860, share=True)
if __name__ == "__main__":
main()