Adanbalf commited on
Commit
21e657e
·
verified ·
1 Parent(s): a56b134

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +20 -7
app.py CHANGED
@@ -1,28 +1,41 @@
 
 
 
 
 
 
 
 
 
 
 
1
  import gradio as gr
2
  import torch
3
- from transformers import AutoProcessor, AutoModelForVision2Seq
 
4
  from PIL import Image
5
  import re
6
- from io import BytesIO
7
 
8
  # ============================================
9
- # 🔮 CONFIGURACIÓN DEL MODELO
10
  # ============================================
11
 
12
  MODEL_ID = "lmms-lab/llava-onevision-1.5-8b-instruct"
13
 
14
  print("⏳ Cargando modelo local con trust_remote_code=True...")
15
- processor = AutoProcessor.from_pretrained(MODEL_ID, trust_remote_code=True)
 
16
  model = AutoModelForVision2Seq.from_pretrained(
17
  MODEL_ID,
18
  trust_remote_code=True,
19
  torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
20
  device_map="auto"
21
  )
22
- print("✅ Modelo cargado correctamente en modo local.")
 
23
 
24
  # ============================================
25
- # 🧠 FUNCIONES DE ANÁLISIS
26
  # ============================================
27
 
28
  def extract_macros(text):
@@ -77,7 +90,7 @@ def analyze_food(image, text_prompt="Describe esta comida y estima sus calorías
77
  return f"<div class='card error'>⚠️ Error: {e}</div>"
78
 
79
  # ============================================
80
- # 💅 INTERFAZ DE USUARIO (Glass Neon)
81
  # ============================================
82
 
83
  def build_interface():
 
1
+ # ============================================
2
+ # 💜 NasFit Vision AI — Dark Neon Edition
3
+ # ============================================
4
+
5
+ # 🚧 Asegúrate de tener este contenido en tu requirements.txt:
6
+ # transformers>=4.43.0
7
+ # torch
8
+ # accelerate
9
+ # gradio
10
+ # Pillow
11
+
12
  import gradio as gr
13
  import torch
14
+ from transformers import AutoModelForVision2Seq
15
+ from transformers import LlavaOneVisionProcessor # 👈 clase correcta
16
  from PIL import Image
17
  import re
 
18
 
19
  # ============================================
20
+ # 🔮 CARGA DEL MODELO LOCAL
21
  # ============================================
22
 
23
  MODEL_ID = "lmms-lab/llava-onevision-1.5-8b-instruct"
24
 
25
  print("⏳ Cargando modelo local con trust_remote_code=True...")
26
+
27
+ processor = LlavaOneVisionProcessor.from_pretrained(MODEL_ID, trust_remote_code=True)
28
  model = AutoModelForVision2Seq.from_pretrained(
29
  MODEL_ID,
30
  trust_remote_code=True,
31
  torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
32
  device_map="auto"
33
  )
34
+
35
+ print("✅ Modelo LLaVA-OneVision cargado correctamente.")
36
 
37
  # ============================================
38
+ # 🧠 FUNCIONES DE ANÁLISIS NUTRICIONAL
39
  # ============================================
40
 
41
  def extract_macros(text):
 
90
  return f"<div class='card error'>⚠️ Error: {e}</div>"
91
 
92
  # ============================================
93
+ # 💅 INTERFAZ DE USUARIO (Purple Glassmorphism)
94
  # ============================================
95
 
96
  def build_interface():