Update extract.py
Browse files- extract.py +3 -3
extract.py
CHANGED
@@ -3,7 +3,7 @@ from selenium.common.exceptions import WebDriverException
|
|
3 |
from bs4 import BeautifulSoup
|
4 |
import time
|
5 |
|
6 |
-
def
|
7 |
options = webdriver.ChromeOptions()
|
8 |
options.add_argument('--headless')
|
9 |
options.add_argument('--no-sandbox')
|
@@ -13,7 +13,7 @@ def extract_domain_data(domain_url):
|
|
13 |
wd = webdriver.Chrome(options=options)
|
14 |
wd.set_window_size(1080, 720)
|
15 |
# Construir la URL de búsqueda
|
16 |
-
url_busqueda = f"https://app.neilpatel.com/es/traffic_analyzer/keywords?domain={
|
17 |
wd.get(url_busqueda)
|
18 |
time.sleep(15) # Espera 15 segundos para que la página se cargue completamente
|
19 |
|
@@ -78,4 +78,4 @@ def extract_domain_data(domain_url):
|
|
78 |
|
79 |
# Parsear el texto filtrado
|
80 |
datos_parseados = parsear_texto(lineas_filtradas)
|
81 |
-
return datos_parseados
|
|
|
3 |
from bs4 import BeautifulSoup
|
4 |
import time
|
5 |
|
6 |
+
def extract_data(user_input, mode):
|
7 |
options = webdriver.ChromeOptions()
|
8 |
options.add_argument('--headless')
|
9 |
options.add_argument('--no-sandbox')
|
|
|
13 |
wd = webdriver.Chrome(options=options)
|
14 |
wd.set_window_size(1080, 720)
|
15 |
# Construir la URL de búsqueda
|
16 |
+
url_busqueda = f"https://app.neilpatel.com/es/traffic_analyzer/keywords?domain={user_input}&lang=es&locId=2724&mode={mode}"
|
17 |
wd.get(url_busqueda)
|
18 |
time.sleep(15) # Espera 15 segundos para que la página se cargue completamente
|
19 |
|
|
|
78 |
|
79 |
# Parsear el texto filtrado
|
80 |
datos_parseados = parsear_texto(lineas_filtradas)
|
81 |
+
return datos_parseados
|