import gradio as gr import cv2 from ultralytics import YOLO #Cargar modelo entrenado model = YOLO('best.pt') #Definir funcion que ejecuta la interfaz definida (en este caso es solo una interfaz, pero pueden ser algunas) #La interfaz solo recibe una entrada (La imagen ingresada en el cargador de path de imagenes), por lo # q ue solo se define un parametro de entrada en la funcion. def show_results(loaded_image): #Se generan las salidas (detecciones) pidiendo al modelo que prediga a partir de la imagen de entrada outputs = model.predict(source=loaded_image) results = outputs[0].cpu().numpy() #Se carga la imagen usando openCV para poder editarla image = cv2.imread(loaded_image) #Se recorre cada boundingBox detectado y para cada uno se pinta un rectangulo y se escribe un id. for i, det in enumerate(results.boxes.xyxy): cv2.rectangle(image, (int(det[0]), int(det[1])), (int(det[2]), int(det[3])), color=(0, 0, 255), thickness=2, lineType=cv2.LINE_AA ) cv2.putText(image, text =f"id:{i}", org=(int(det[0]), int(det[1])), fontFace =cv2.FONT_HERSHEY_SIMPLEX, fontScale=1, color=(0,0,255), thickness=1, lineType=cv2.LINE_AA ) #Se retornan las 2 salidas definidas(imagen y texto): la imagen resultante (image) y un texto indicando cuantos boundingBox se encontraron return cv2.cvtColor(image, cv2.COLOR_BGR2RGB), len(results.boxes) inputs = [gr.components.Image(type="filepath", label="Input Image"), ] outputs= [gr.components.Image(type="numpy", label="Output Image"), gr.Textbox(label="Total:") ] #examples = [['demo1.png'], ['demo2.jpg'], ['demo3.jpg'], ['demo4.png']] interface = gr.Interface(fn=show_results, inputs=inputs, outputs=outputs, title="Object Detection", #En la interfaz se pueden incluir ejemplos de lo que se espera como entrada o entradas. En este caso, # la entrada es una imagen por lo que se pueden poner imagenes de ejemplo (deben estar subidas en el repositorio # y con el path correctamente referenciado) #examples=examples, ) interface.launch()