DHEIVER commited on
Commit
3eb5cc3
1 Parent(s): b31edfa

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +42 -46
app.py CHANGED
@@ -1,7 +1,3 @@
1
- # preprocess.py
2
- # (No changes in this file)
3
-
4
- # main.py
5
  import os
6
  os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
7
 
@@ -9,31 +5,22 @@ import gradio as gr
9
  import torch
10
  import cv2
11
  import numpy as np
12
- import time
13
- from gradio.components import Label, Image, Dropdown
14
-
15
- # Add the missing 'unsharp_masking' function from preprocess.py
16
  from preprocess import unsharp_masking
17
-
18
- # Load the models outside the function
19
- models = {
20
- 'SE-RegUNet 4GF': torch.jit.load('./model/SERegUNet4GF.pt'),
21
- 'SE-RegUNet 16GF': torch.jit.load('./model/SERegUNet16GF.pt'),
22
- 'AngioNet': torch.jit.load('./model/AngioNet.pt'),
23
- 'EffUNet++ B5': torch.jit.load('./model/EffUNetppb5.pt'),
24
- 'Reg-SA-UNet++': torch.jit.load('./model/RegSAUnetpp.pt'),
25
- 'UNet3+': torch.jit.load('./model/UNet3plus.pt'),
26
- }
27
 
28
  device = "cuda" if torch.cuda.is_available() else "cpu"
29
 
30
- def preprocess_image(img, modelo):
31
- img = img.copy()
32
- if len(img.shape) == 3 and img.shape[-1] == 3:
33
- img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
 
 
 
34
  h, w = img.shape
35
  img_out = preprocessamento(img, modelo)
36
- return img_out, h, w, img
37
 
38
  def preprocessamento(img, modelo='SE-RegUNet 4GF'):
39
  img = cv2.resize(img, (512, 512))
@@ -57,11 +44,11 @@ def preprocessamento(img, modelo='SE-RegUNet 4GF'):
57
  img_out = np.stack((image1,) * 3, axis=0)
58
  return img_out
59
 
60
- def process_image(img, modelo):
61
- model = models[modelo]
62
- pipe = model.to(device).eval()
63
  start = time.time()
64
- img, h, w, ori_gray = preprocess_image(img, modelo)
65
  img = torch.FloatTensor(img).unsqueeze(0).to(device)
66
  with torch.no_grad():
67
  if modelo == 'AngioNet':
@@ -74,33 +61,42 @@ def process_image(img, modelo):
74
  logit = cv2.resize(logit, (h, w))
75
 
76
  logit = logit.astype(bool)
77
- img_out = img.cpu().numpy().squeeze().copy()
78
- img_out[logit] = 1 # Set the mask to 1 (white)
79
- img_out[~logit] = 0 # Set other regions to 0 (black)
80
- return spent, img_out, detect_disease(logit)
81
 
82
- def detect_disease(logit):
83
- # Implement your disease detection logic here based on the logit mask
84
- # For example, you can count the number of white pixels or use any other criteria.
85
- # For the sake of simplicity, let's assume that we don't detect any disease for now.
86
- return "No Disease"
 
 
 
 
 
 
 
 
 
 
 
87
 
88
  my_app = gr.Interface(
89
- fn=process_image,
90
  inputs=[
91
- Image(label="Angiograma:", shape=(512, 512)),
92
- Dropdown(['SE-RegUNet 4GF', 'SE-RegUNet 16GF', 'AngioNet', 'EffUNet++ B5', 'Reg-SA-UNet++', 'UNet3+'], label='Modelo', default='SE-RegUNet 4GF'),
93
  ],
94
  outputs=[
95
- Label(label="Tempo decorrido"),
96
- Image(label="Imagem de Saída"),
97
- Label(label="Status da Doença"),
98
  ],
99
  title="Segmentação de Angiograma Coronariano",
100
- description="Esta aplicação segmenta angiogramas coronarianos usando modelos de segmentação pré-treinados. Faça o upload de uma imagem de angiograma e selecione um modelo para visualizar o resultado da segmentação.\n\nSelecione uma imagem de angiograma coronariano e um modelo de segmentação no painel à esquerda.\n\nStatus da Doença:\n- 'Disease Detected': Indica que a segmentação detectou uma área significativa de estenose.\n- 'No Disease': Indica que a segmentação não detectou estenose significativa.\nCom base no resultado, é recomendado consultar um profissional de saúde para avaliação e orientação adicional, se necessário.",
101
  theme="default",
102
- allow_flagging="never",
103
- live=True, # Add this line to enable live updates
104
  )
105
 
106
- my_app.launch() # Remove this line if using the 'share=True' option
 
 
 
 
 
1
  import os
2
  os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
3
 
 
5
  import torch
6
  import cv2
7
  import numpy as np
 
 
 
 
8
  from preprocess import unsharp_masking
9
+ import glob
10
+ import time
 
 
 
 
 
 
 
 
11
 
12
  device = "cuda" if torch.cuda.is_available() else "cpu"
13
 
14
+ print(
15
+ "torch: ", torch.__version__,
16
+ )
17
+
18
+ def ordenar_arquivos(img, modelo):
19
+ ori = img.copy()
20
+ img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
21
  h, w = img.shape
22
  img_out = preprocessamento(img, modelo)
23
+ return img_out, h, w, img, ori
24
 
25
  def preprocessamento(img, modelo='SE-RegUNet 4GF'):
26
  img = cv2.resize(img, (512, 512))
 
44
  img_out = np.stack((image1,) * 3, axis=0)
45
  return img_out
46
 
47
+ def processar_imagem_de_entrada(img, modelo, pipe):
48
+ img = img.copy()
49
+ pipe = pipe.to(device).eval()
50
  start = time.time()
51
+ img, h, w, ori_gray, ori = ordenar_arquivos(img, modelo)
52
  img = torch.FloatTensor(img).unsqueeze(0).to(device)
53
  with torch.no_grad():
54
  if modelo == 'AngioNet':
 
61
  logit = cv2.resize(logit, (h, w))
62
 
63
  logit = logit.astype(bool)
64
+ img_out = ori.copy()
65
+ img_out[logit, 0] = 255
66
+ return spent, img_out
 
67
 
68
+ # Load the models outside the function
69
+ models = {
70
+ 'SE-RegUNet 4GF': torch.jit.load('./model/SERegUNet4GF.pt'),
71
+ 'SE-RegUNet 16GF': torch.jit.load('./model/SERegUNet16GF.pt'),
72
+ 'AngioNet': torch.jit.load('./model/AngioNet.pt'),
73
+ 'EffUNet++ B5': torch.jit.load('./model/EffUNetppb5.pt'),
74
+ 'Reg-SA-UNet++': torch.jit.load('./model/RegSAUnetpp.pt'),
75
+ 'UNet3+': torch.jit.load('./model/UNet3plus.pt'),
76
+ }
77
+
78
+ for model_name, model in models.items():
79
+ models[model_name] = model.to(device).eval()
80
+
81
+ def processar_imagem_de_entrada_wrapper(img, modelo):
82
+ model = models[modelo]
83
+ return processar_imagem_de_entrada(img, modelo, model)
84
 
85
  my_app = gr.Interface(
86
+ fn=processar_imagem_de_entrada_wrapper,
87
  inputs=[
88
+ gr.inputs.Image(label="Angiograma:", shape=(512, 512)),
89
+ gr.inputs.Dropdown(['SE-RegUNet 4GF', 'SE-RegUNet 16GF', 'AngioNet', 'EffUNet++ B5', 'Reg-SA-UNet++', 'UNet3+'], label='Modelo', default='SE-RegUNet 4GF'),
90
  ],
91
  outputs=[
92
+ gr.outputs.Label(label="Tempo decorrido"),
93
+ gr.outputs.Image(type="numpy", label="Imagem de Saída"),
 
94
  ],
95
  title="Segmentação de Angiograma Coronariano",
96
+ description="Esta aplicação segmenta angiogramas coronarianos usando modelos de segmentação pré-treinados. Faça o upload de uma imagem de angiograma e selecione um modelo para visualizar o resultado da segmentação.\n\nSelecione uma imagem de angiograma coronariano e um modelo de segmentação no painel à esquerda.",
97
  theme="default",
98
+ layout="vertical",
99
+ allow_flagging=False,
100
  )
101
 
102
+ my_app.launch()