Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -11,54 +11,51 @@ def detect_objects(video_path):
|
|
11 |
cap = cv2.VideoCapture(video_path)
|
12 |
if not cap.isOpened():
|
13 |
raise ValueError("Não foi possível abrir o vídeo.")
|
14 |
-
|
15 |
# Criar um arquivo temporário para salvar o vídeo processado
|
16 |
output_path = tempfile.NamedTemporaryFile(suffix=".mp4", delete=False).name
|
17 |
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
|
18 |
out = cv2.VideoWriter(output_path, fourcc, 30.0, (int(cap.get(3)), int(cap.get(4))))
|
19 |
-
|
20 |
while cap.isOpened():
|
21 |
ret, frame = cap.read()
|
22 |
if not ret:
|
23 |
break
|
24 |
-
|
25 |
# Realizar a detecção de objetos
|
26 |
results = model(frame)
|
27 |
annotated_frame = results[0].plot() # Obter o frame com as detecções
|
28 |
-
|
29 |
# Escrever o frame processado no vídeo de saída
|
30 |
out.write(annotated_frame)
|
31 |
-
|
32 |
# Liberar os recursos
|
33 |
cap.release()
|
34 |
out.release()
|
35 |
-
|
36 |
# Retornar o caminho do vídeo de entrada e do vídeo processado
|
37 |
return video_path, output_path
|
38 |
|
39 |
-
#
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
gr.Video(label="Vídeo
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
|
54 |
-
|
55 |
-
|
56 |
-
|
57 |
-
|
58 |
-
)
|
59 |
-
title="Detecção de Objetos com YOLOv8",
|
60 |
-
description="Carregue um vídeo curto para detectar objetos usando YOLOv8. Os vídeos de entrada e saída serão exibidos lado a lado."
|
61 |
-
)
|
62 |
|
63 |
# Iniciar a interface
|
64 |
-
|
|
|
11 |
cap = cv2.VideoCapture(video_path)
|
12 |
if not cap.isOpened():
|
13 |
raise ValueError("Não foi possível abrir o vídeo.")
|
14 |
+
|
15 |
# Criar um arquivo temporário para salvar o vídeo processado
|
16 |
output_path = tempfile.NamedTemporaryFile(suffix=".mp4", delete=False).name
|
17 |
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
|
18 |
out = cv2.VideoWriter(output_path, fourcc, 30.0, (int(cap.get(3)), int(cap.get(4))))
|
19 |
+
|
20 |
while cap.isOpened():
|
21 |
ret, frame = cap.read()
|
22 |
if not ret:
|
23 |
break
|
24 |
+
|
25 |
# Realizar a detecção de objetos
|
26 |
results = model(frame)
|
27 |
annotated_frame = results[0].plot() # Obter o frame com as detecções
|
28 |
+
|
29 |
# Escrever o frame processado no vídeo de saída
|
30 |
out.write(annotated_frame)
|
31 |
+
|
32 |
# Liberar os recursos
|
33 |
cap.release()
|
34 |
out.release()
|
35 |
+
|
36 |
# Retornar o caminho do vídeo de entrada e do vídeo processado
|
37 |
return video_path, output_path
|
38 |
|
39 |
+
# Usar gr.Blocks para criar uma interface personalizada
|
40 |
+
with gr.Blocks() as demo:
|
41 |
+
gr.Markdown("# Detecção de Objetos com YOLOv8")
|
42 |
+
gr.Markdown("Carregue um vídeo curto para detectar objetos usando YOLOv8. Os vídeos de entrada e saída serão exibidos lado a lado.")
|
43 |
+
|
44 |
+
with gr.Row():
|
45 |
+
input_video = gr.Video(label="Vídeo de Entrada")
|
46 |
+
output_video = gr.Video(label="Vídeo com Detecção de Objetos")
|
47 |
+
|
48 |
+
detect_button = gr.Button("Detectar Objetos")
|
49 |
+
|
50 |
+
def process_and_display(video_path):
|
51 |
+
original_video, processed_video = detect_objects(video_path)
|
52 |
+
return original_video, processed_video
|
53 |
+
|
54 |
+
detect_button.click(
|
55 |
+
fn=process_and_display,
|
56 |
+
inputs=input_video,
|
57 |
+
outputs=[input_video, output_video]
|
58 |
+
)
|
|
|
|
|
|
|
59 |
|
60 |
# Iniciar a interface
|
61 |
+
demo.launch()
|