DHEIVER's picture
Update app.py
2ed0a0d
raw
history blame
7.75 kB
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
import gradio as gr
import torch
import cv2
import numpy as np
from preprocess import unsharp_masking
import time
from sklearn.cluster import KMeans
import os
device = "cuda" if torch.cuda.is_available() else "cpu"
# Função para ordenar e pré-processar a imagem de entrada
def ordenar_e_preprocessar_imagem(img, modelo):
ori = img.copy()
img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
h, w = img.shape
img_out = preprocessar_imagem(img, modelo)
return img_out, h, w, img, ori
# Função para pré-processar a imagem com base no modelo selecionado
def preprocessar_imagem(img, modelo='SE-RegUNet 4GF'):
# Redimensionar a imagem para 512x512
img = cv2.resize(img, (512, 512))
# Aplicar a máscara de nitidez à imagem
img = unsharp_masking(img).astype(np.uint8)
# Função auxiliar para normalizar a imagem
def normalizar_imagem(img):
return np.float32((img - img.min()) / (img.max() - img.min() + 1e-6))
if modelo == 'AngioNet' or modelo == 'UNet3+':
img = normalizar_imagem(img)
img_out = np.expand_dims(img, axis=0)
elif modelo == 'SE-RegUNet 4GF':
clahe1 = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8, 8))
clahe2 = cv2.createCLAHE(clipLimit=8.0, tileGridSize=(8, 8))
image1 = clahe1.apply(img)
image2 = clahe2.apply(img)
img = normalizar_imagem(img)
image1 = normalizar_imagem(image1)
image2 = normalizar_imagem(image2)
img_out = np.stack((img, image1, image2), axis=0)
else:
clahe1 = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8, 8))
image1 = clahe1.apply(img)
image1 = normalizar_imagem(image1)
img_out = np.stack((image1,) * 3, axis=0)
return img_out
import os
# Caminho absoluto para a pasta de salvamento
caminho_salvar_resultado = "/Segmento_de_Angio_Coronariana_v5/Salvar Resultado"
# Função para processar a imagem de entrada
def processar_imagem_de_entrada(img, modelo, pipe, salvar_resultado=False):
try:
# Faça uma cópia da imagem original
img = img.copy()
# Coloque o modelo na GPU (se disponível) e configure-o para modo de avaliação
pipe = pipe.to(device).eval()
# Registre o tempo de início
start = time.time()
# Pré-processe a imagem e obtenha informações de dimensão
img, h, w, ori_gray, ori = ordenar_e_preprocessar_imagem(img, modelo)
# Converta a imagem para o formato esperado pelo modelo e coloque-a na GPU
img = torch.FloatTensor(img).unsqueeze(0).to(device)
# Realize a inferência do modelo sem gradientes
with torch.no_grad():
if modelo == 'AngioNet':
img = torch.cat([img, img], dim=0)
logit = np.round(torch.softmax(pipe.forward(img), dim=1).detach().cpu().numpy()[0, 0]).astype(np.uint8)
# Calcule o tempo decorrido
spent = time.time() - start
spent = f"{spent:.3f} segundos"
# Redimensione o resultado, se necessário
if h != 512 or w != 512:
logit = cv2.resize(logit, (h, w))
# Converta o resultado para um formato booleano
logit = logit.astype(bool)
# Crie uma cópia da imagem original para saída e aplique a máscara
img_out = ori.copy()
img_out[logit, 0] = 255
# Salve o resultado em um arquivo se a opção estiver ativada
if salvar_resultado:
nome_arquivo = os.path.join(caminho_salvar_resultado, f'resultado_{int(time.time())}.png')
cv2.imwrite(nome_arquivo, img_out)
return spent, img_out
except Exception as e:
# Em caso de erro, retorne uma mensagem de erro
return str(e), None
# Carregar modelos pré-treinados
models = {
'SE-RegUNet 4GF': torch.jit.load('./model/SERegUNet4GF.pt'),
'SE-RegUNet 16GF': torch.jit.load('./model/SERegUNet16GF.pt'),
'AngioNet': torch.jit.load('./model/AngioNet.pt'),
'EffUNet++ B5': torch.jit.load('./model/EffUNetppb5.pt'),
'Reg-SA-UNet++': torch.jit.load('./model/RegSAUnetpp.pt'),
'UNet3+': torch.jit.load('./model/UNet3plus.pt'),
}
from scipy.spatial import distance
from scipy.ndimage import label
import numpy as np
# Adicionar a opção de salvar o resultado em um arquivo
def processar_imagem_de_entrada_wrapper(img, modelo, salvar_resultado=False):
model = models[modelo]
resultado, img_out = processar_imagem_de_entrada(img, modelo, model, salvar_resultado)
# Resto do código permanece inalterado
kmeans = KMeans(n_clusters=2, random_state=0)
flattened_img = img_out[:, :, 0].reshape((-1, 1))
kmeans.fit(flattened_img)
labels = kmeans.labels_
cluster_centers = kmeans.cluster_centers_
# Detecção de doenças usando K-Means
kmeans = KMeans(n_clusters=2, random_state=0)
flattened_img = img_out[:, :, 0].reshape((-1, 1)) # Use o canal de intensidade
kmeans.fit(flattened_img)
labels = kmeans.labels_
cluster_centers = kmeans.cluster_centers_
# Resto do código permanece inalterado
# Extração de características dos clusters
num_clusters = len(cluster_centers)
cluster_features = []
for i in range(num_clusters):
cluster_mask = labels == i # Create a boolean mask for the cluster
# Calcular área do cluster
area = np.sum(cluster_mask)
if area == 0: # Skip empty clusters
continue
# Calcular forma do cluster usando a relação entre área e perímetro
contours, _ = cv2.findContours(np.uint8(cluster_mask), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
if len(contours) > 0:
perimeter = cv2.arcLength(contours[0], True)
compactness = 4 * np.pi * area / (perimeter ** 2)
cluster_features.append({'area': area, 'compactness': compactness})
# Decidir se há doença com base nas características dos clusters
has_disease_flag = any(feature['area'] >= 200 and feature['compactness'] < 0.3 for feature in cluster_features)
# Formatar o indicador de doença como uma string
if has_disease_flag:
status_doenca = "Sim"
explanation = "A máquina detectou uma possível doença nos vasos sanguíneos."
else:
status_doenca = "Não"
explanation = "A máquina não detectou nenhuma doença nos vasos sanguíneos."
# Resto do código permanece inalterado
return resultado, img_out, status_doenca, explanation, f"{num_analises} análises realizadas"
# Inicializar a contagem de análises
num_analises = 0
# Criar a interface Gradio
my_app = gr.Interface(
fn=processar_imagem_de_entrada_wrapper,
inputs=[
gr.inputs.Image(label="Angiograma:", shape=(512, 512)),
gr.inputs.Dropdown(['SE-RegUNet 4GF','SE-RegUNet 16GF', 'AngioNet', 'EffUNet++ B5', 'Reg-SA-UNet++', 'UNet3+'], label='Modelo', default='SE-RegUNet 4GF'),
gr.inputs.Checkbox(label="Salvar Resultado"),
],
outputs=[
gr.outputs.Label(label="Tempo decorrido"),
gr.outputs.Image(type="numpy", label="Imagem de Saída"),
gr.outputs.Label(label="Possui Doença?"),
gr.outputs.Label(label="Explicação"),
gr.outputs.Label(label="Análises Realizadas"),
],
title="Segmentação de Angiograma Coronariano",
description="Esta aplicação segmenta angiogramas coronarianos usando modelos de segmentação pré-treinados.",
theme="default",
layout="vertical",
allow_flagging=False,
)
# Iniciar a interface Gradio
my_app.launch()