rriverar75 commited on
Commit
db010ee
1 Parent(s): f825649

Upload 5 files

Browse files
Files changed (6) hide show
  1. .gitattributes +3 -0
  2. app.py +106 -0
  3. dientes_1.png +3 -0
  4. dientes_2.png +3 -0
  5. dientes_3.png +3 -0
  6. requirements.txt +5 -0
.gitattributes CHANGED
@@ -32,3 +32,6 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
32
  *.zip filter=lfs diff=lfs merge=lfs -text
33
  *.zst filter=lfs diff=lfs merge=lfs -text
34
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
 
 
32
  *.zip filter=lfs diff=lfs merge=lfs -text
33
  *.zst filter=lfs diff=lfs merge=lfs -text
34
  *tfevents* filter=lfs diff=lfs merge=lfs -text
35
+ dientes_1.png filter=lfs diff=lfs merge=lfs -text
36
+ dientes_2.png filter=lfs diff=lfs merge=lfs -text
37
+ dientes_3.png filter=lfs diff=lfs merge=lfs -text
app.py ADDED
@@ -0,0 +1,106 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import streamlit as st
2
+ from PIL import Image
3
+ import numpy as np
4
+ import cv2
5
+ from huggingface_hub import from_pretrained_keras
6
+
7
+ st.header("Segmentación de dientes con rayos X")
8
+
9
+ st.markdown(
10
+ """
11
+ Hola 🚀. Este es un modelo de prueba como ejercicio de Platzi
12
+
13
+ El modelo fue creado por [SerdarHelli](https://huggingface.co/SerdarHelli/Segmentation-of-Teeth-in-Panoramic-X-ray-Image-Using-U-Net).
14
+
15
+ """
16
+ )
17
+
18
+ ## Seleccionamos y cargamos el modelo
19
+ model_id = "SerdarHelli/Segmentation-of-Teeth-in-Panoramic-X-ray-Image-Using-U-Net"
20
+ model = from_pretrained_keras(model_id)
21
+
22
+ ## Permitimos a la usuaria cargar una imagen
23
+ archivo_imagen = st.file_uploader("Sube aquí tu imagen.", type=["png", "jpg", "jpeg"])
24
+
25
+ ## Si una imagen tiene más de un canal entonces se convierte a escala de grises (1 canal)
26
+ def convertir_one_channel(img):
27
+ if len(img.shape) > 2:
28
+ img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
29
+ return img
30
+ else:
31
+ return img
32
+
33
+
34
+ def convertir_rgb(img):
35
+ if len(img.shape) == 2:
36
+ img = cv2.cvtColor(img, cv2.COLOR_GRAY2RGB)
37
+ return img
38
+ else:
39
+ return img
40
+
41
+
42
+ ## Manipularemos la interfaz para que podamos usar imágenes ejemplo
43
+ ## Si el usuario da click en un ejemplo entonces el modelo correrá con él
44
+ ejemplos = ["dientes_1.png", "dientes_2.png", "dientes_3.png"]
45
+
46
+ ## Creamos tres columnas; en cada una estará una imagen ejemplo
47
+ col1, col2, col3 = st.columns(3)
48
+ with col1:
49
+ ## Se carga la imagen y se muestra en la interfaz
50
+ ex = Image.open(ejemplos[0])
51
+ st.image(ex, width=200)
52
+ ## Si oprime el botón entonces usaremos ese ejemplo en el modelo
53
+ if st.button("Corre este ejemplo 1"):
54
+ archivo_imagen = ejemplos[0]
55
+
56
+ with col2:
57
+ ex1 = Image.open(ejemplos[1])
58
+ st.image(ex1, width=200)
59
+ if st.button("Corre este ejemplo 2"):
60
+ archivo_imagen = ejemplos[1]
61
+
62
+ with col3:
63
+ ex2 = Image.open(ejemplos[2])
64
+ st.image(ex2, width=200)
65
+ if st.button("Corre este ejemplo 3"):
66
+ archivo_imagen = ejemplos[2]
67
+
68
+ ## Si tenemos una imagen para ingresar en el modelo entonces
69
+ ## la procesamos e ingresamos al modelo
70
+ if archivo_imagen is not None:
71
+ ## Cargamos la imagen con PIL, la mostramos y la convertimos a un array de NumPy
72
+ img = Image.open(archivo_imagen)
73
+ st.image(img, width=850)
74
+ img = np.asarray(img)
75
+
76
+ ## Procesamos la imagen para ingresarla al modelo
77
+ img_cv = convertir_one_channel(img)
78
+ img_cv = cv2.resize(img_cv, (512, 512), interpolation=cv2.INTER_LANCZOS4)
79
+ img_cv = np.float32(img_cv / 255)
80
+ img_cv = np.reshape(img_cv, (1, 512, 512, 1))
81
+
82
+ ## Ingresamos el array de NumPy al modelo
83
+ predicted = model.predict(img_cv)
84
+ predicted = predicted[0]
85
+
86
+ ## Regresamos la imagen a su forma original y agregamos las máscaras de la segmentación
87
+ predicted = cv2.resize(
88
+ predicted, (img.shape[1], img.shape[0]), interpolation=cv2.INTER_LANCZOS4
89
+ )
90
+ mask = np.uint8(predicted * 255) #
91
+ _, mask = cv2.threshold(
92
+ mask, thresh=0, maxval=255, type=cv2.THRESH_BINARY + cv2.THRESH_OTSU
93
+ )
94
+ kernel = np.ones((5, 5), dtype=np.float32)
95
+ mask = cv2.morphologyEx(mask, cv2.MORPH_OPEN, kernel, iterations=1)
96
+ mask = cv2.morphologyEx(mask, cv2.MORPH_CLOSE, kernel, iterations=1)
97
+ cnts, hieararch = cv2.findContours(mask, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
98
+ output = cv2.drawContours(convertir_one_channel(img), cnts, -1, (255, 0, 0), 3)
99
+
100
+ ## Si obtuvimos exitosamente un resultadod entonces lo mostramos en la interfaz
101
+ if output is not None:
102
+ st.subheader("Segmentación:")
103
+ st.write(output.shape)
104
+ st.image(output, width=850)
105
+
106
+ st.markdown("Gracias por utilizar este Demo")
dientes_1.png ADDED

Git LFS Details

  • SHA256: afb58f9483d7e245b5c88ac696db2678562ba1f3184033d6988b9644a6aadc47
  • Pointer size: 132 Bytes
  • Size of remote file: 1.66 MB
dientes_2.png ADDED

Git LFS Details

  • SHA256: f3dfd2da7b64240571991fe466c1817656eefd48726b2b0fe6edb9f31adb672f
  • Pointer size: 132 Bytes
  • Size of remote file: 1.28 MB
dientes_3.png ADDED

Git LFS Details

  • SHA256: 985bbe83c87cc13cb323ee42644de02c9cc26186f7339590c7d957c1158d12aa
  • Pointer size: 132 Bytes
  • Size of remote file: 1.87 MB
requirements.txt ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ numpy
2
+ Pillow
3
+ scipy
4
+ opencv-python
5
+ tensorflow