cantuncok commited on
Commit
6205fd1
1 Parent(s): 7af819a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +17 -7
app.py CHANGED
@@ -1,7 +1,8 @@
1
  import gradio as gr
2
- from transformers import AutoProcessor, AutoModelForVisionText2Text
3
  import os
4
  import torch
 
 
5
 
6
  # Hugging Face tokeninizi çevresel değişkenden alın
7
  hf_token = os.getenv("HF_TOKEN")
@@ -10,21 +11,30 @@ if not hf_token:
10
 
11
  # Model ve işlemciyi yükleyin
12
  model_name = "meta-llama/Llama-3.2-90B-Vision-Instruct"
13
- processor = AutoProcessor.from_pretrained(model_name, use_auth_token=hf_token)
14
- model = AutoModelForVisionText2Text.from_pretrained(
15
  model_name,
16
  use_auth_token=hf_token,
 
17
  device_map="auto",
18
- torch_dtype=torch.float16
19
  )
 
20
 
21
  def predict(image, text):
22
- # Girdileri işleyin ve cihazı ayarlayın
23
- inputs = processor(images=image, text=text, return_tensors="pt").to(model.device)
 
 
 
 
 
 
 
 
 
24
  # Modelden yanıt alın
25
  outputs = model.generate(**inputs, max_new_tokens=100)
26
  # Çıktıyı çözümleyin
27
- response = processor.batch_decode(outputs, skip_special_tokens=True)[0]
28
  return response
29
 
30
  # Gradio arayüzünü tanımlayın
 
1
  import gradio as gr
 
2
  import os
3
  import torch
4
+ from transformers import AutoProcessor, MllamaForConditionalGeneration
5
+ from PIL import Image
6
 
7
  # Hugging Face tokeninizi çevresel değişkenden alın
8
  hf_token = os.getenv("HF_TOKEN")
 
11
 
12
  # Model ve işlemciyi yükleyin
13
  model_name = "meta-llama/Llama-3.2-90B-Vision-Instruct"
14
+ model = MllamaForConditionalGeneration.from_pretrained(
 
15
  model_name,
16
  use_auth_token=hf_token,
17
+ torch_dtype=torch.bfloat16,
18
  device_map="auto",
 
19
  )
20
+ processor = AutoProcessor.from_pretrained(model_name, use_auth_token=hf_token)
21
 
22
  def predict(image, text):
23
+ # Mesajları hazırlayın
24
+ messages = [
25
+ {"role": "user", "content": [
26
+ {"type": "image"},
27
+ {"type": "text", "text": text}
28
+ ]}
29
+ ]
30
+ # Girdi metnini oluşturun
31
+ input_text = processor.apply_chat_template(messages, add_generation_prompt=True)
32
+ # Girdileri işleyin ve cihaza taşıyın
33
+ inputs = processor(image, input_text, return_tensors="pt").to(model.device)
34
  # Modelden yanıt alın
35
  outputs = model.generate(**inputs, max_new_tokens=100)
36
  # Çıktıyı çözümleyin
37
+ response = processor.decode(outputs[0], skip_special_tokens=True)
38
  return response
39
 
40
  # Gradio arayüzünü tanımlayın