DHEIVER commited on
Commit
b31edfa
1 Parent(s): efb06a1

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +25 -30
app.py CHANGED
@@ -1,25 +1,7 @@
1
  # preprocess.py
 
2
 
3
- import cv2
4
-
5
- def unsharp_masking(img, kernel_size=(5, 5), sigma=1.0, amount=1.0, threshold=0):
6
- # Convert to grayscale if not already
7
- if len(img.shape) == 3:
8
- img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
9
-
10
- # Apply Gaussian blur
11
- blurred = cv2.GaussianBlur(img, kernel_size, sigma)
12
-
13
- # Calculate the mask
14
- mask = cv2.addWeighted(img, 1 + amount, blurred, -amount, 0)
15
-
16
- # Apply threshold if specified
17
- if threshold > 0:
18
- _, mask = cv2.threshold(mask, threshold, 255, cv2.THRESH_BINARY)
19
-
20
- return mask
21
-
22
- # The rest of your code remains unchanged
23
  import os
24
  os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
25
 
@@ -28,6 +10,10 @@ import torch
28
  import cv2
29
  import numpy as np
30
  import time
 
 
 
 
31
 
32
  # Load the models outside the function
33
  models = {
@@ -43,7 +29,8 @@ device = "cuda" if torch.cuda.is_available() else "cpu"
43
 
44
  def preprocess_image(img, modelo):
45
  img = img.copy()
46
- img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
 
47
  h, w = img.shape
48
  img_out = preprocessamento(img, modelo)
49
  return img_out, h, w, img
@@ -70,8 +57,9 @@ def preprocessamento(img, modelo='SE-RegUNet 4GF'):
70
  img_out = np.stack((image1,) * 3, axis=0)
71
  return img_out
72
 
73
- def process_image(img, modelo, pipe):
74
- pipe = pipe.to(device).eval()
 
75
  start = time.time()
76
  img, h, w, ori_gray = preprocess_image(img, modelo)
77
  img = torch.FloatTensor(img).unsqueeze(0).to(device)
@@ -86,20 +74,27 @@ def process_image(img, modelo, pipe):
86
  logit = cv2.resize(logit, (h, w))
87
 
88
  logit = logit.astype(bool)
89
- img_out = img.copy()
90
- img_out[logit] = 255
 
91
  return spent, img_out, detect_disease(logit)
92
 
 
 
 
 
 
 
93
  my_app = gr.Interface(
94
  fn=process_image,
95
  inputs=[
96
- gr.inputs.Image(label="Angiograma:", shape=(512, 512)),
97
- gr.inputs.Dropdown(['SE-RegUNet 4GF', 'SE-RegUNet 16GF', 'AngioNet', 'EffUNet++ B5', 'Reg-SA-UNet++', 'UNet3+'], label='Modelo', default='SE-RegUNet 4GF'),
98
  ],
99
  outputs=[
100
- gr.outputs.Label(label="Tempo decorrido"),
101
- gr.outputs.Image(type="numpy", label="Imagem de Saída"),
102
- gr.outputs.Label(label="Status da Doença"),
103
  ],
104
  title="Segmentação de Angiograma Coronariano",
105
  description="Esta aplicação segmenta angiogramas coronarianos usando modelos de segmentação pré-treinados. Faça o upload de uma imagem de angiograma e selecione um modelo para visualizar o resultado da segmentação.\n\nSelecione uma imagem de angiograma coronariano e um modelo de segmentação no painel à esquerda.\n\nStatus da Doença:\n- 'Disease Detected': Indica que a segmentação detectou uma área significativa de estenose.\n- 'No Disease': Indica que a segmentação não detectou estenose significativa.\nCom base no resultado, é recomendado consultar um profissional de saúde para avaliação e orientação adicional, se necessário.",
 
1
  # preprocess.py
2
+ # (No changes in this file)
3
 
4
+ # main.py
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5
  import os
6
  os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
7
 
 
10
  import cv2
11
  import numpy as np
12
  import time
13
+ from gradio.components import Label, Image, Dropdown
14
+
15
+ # Add the missing 'unsharp_masking' function from preprocess.py
16
+ from preprocess import unsharp_masking
17
 
18
  # Load the models outside the function
19
  models = {
 
29
 
30
  def preprocess_image(img, modelo):
31
  img = img.copy()
32
+ if len(img.shape) == 3 and img.shape[-1] == 3:
33
+ img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
34
  h, w = img.shape
35
  img_out = preprocessamento(img, modelo)
36
  return img_out, h, w, img
 
57
  img_out = np.stack((image1,) * 3, axis=0)
58
  return img_out
59
 
60
+ def process_image(img, modelo):
61
+ model = models[modelo]
62
+ pipe = model.to(device).eval()
63
  start = time.time()
64
  img, h, w, ori_gray = preprocess_image(img, modelo)
65
  img = torch.FloatTensor(img).unsqueeze(0).to(device)
 
74
  logit = cv2.resize(logit, (h, w))
75
 
76
  logit = logit.astype(bool)
77
+ img_out = img.cpu().numpy().squeeze().copy()
78
+ img_out[logit] = 1 # Set the mask to 1 (white)
79
+ img_out[~logit] = 0 # Set other regions to 0 (black)
80
  return spent, img_out, detect_disease(logit)
81
 
82
+ def detect_disease(logit):
83
+ # Implement your disease detection logic here based on the logit mask
84
+ # For example, you can count the number of white pixels or use any other criteria.
85
+ # For the sake of simplicity, let's assume that we don't detect any disease for now.
86
+ return "No Disease"
87
+
88
  my_app = gr.Interface(
89
  fn=process_image,
90
  inputs=[
91
+ Image(label="Angiograma:", shape=(512, 512)),
92
+ Dropdown(['SE-RegUNet 4GF', 'SE-RegUNet 16GF', 'AngioNet', 'EffUNet++ B5', 'Reg-SA-UNet++', 'UNet3+'], label='Modelo', default='SE-RegUNet 4GF'),
93
  ],
94
  outputs=[
95
+ Label(label="Tempo decorrido"),
96
+ Image(label="Imagem de Saída"),
97
+ Label(label="Status da Doença"),
98
  ],
99
  title="Segmentação de Angiograma Coronariano",
100
  description="Esta aplicação segmenta angiogramas coronarianos usando modelos de segmentação pré-treinados. Faça o upload de uma imagem de angiograma e selecione um modelo para visualizar o resultado da segmentação.\n\nSelecione uma imagem de angiograma coronariano e um modelo de segmentação no painel à esquerda.\n\nStatus da Doença:\n- 'Disease Detected': Indica que a segmentação detectou uma área significativa de estenose.\n- 'No Disease': Indica que a segmentação não detectou estenose significativa.\nCom base no resultado, é recomendado consultar um profissional de saúde para avaliação e orientação adicional, se necessário.",