# ---------------------------------------------------------下方为保存的相关设置-----------------------------------------------------
# urlstxtname:url状态码200时保存的txt文件名
urlstxtname='200Urls'
# url_stxtname:url状态码不是200时需要保存的txt文件名
url_stxtname='ElseUrls'
# htmlname:html截图报告保存的名字
htmlname='截图报告'
# excelname:生成的excel文件名字
excelname='存活探测'
# link_url:是否要将excel的url结果转化为超链接
link_url=True
# get_location:是否在excel文件当中写入转跳后的url，注意这个需要参数-a为True(默认-a就是True)才能获取到值!
get_location=True
# onlysave:是否对--存活的url--进行协议合并去重 比如: https://abc.com 和 http://abc.com 都是存活url 则去除 http://abc.com 只保留 https://abc.com 若为False则同时保留两者结果 注意:该参数只会对状态码为200的url进行协议合并
onlysave=True
# 是否每次启动自动检测程序更新.注意更新操作为了保证运行环境会重置项目文件夹为最新初始状态，记得自定义文件的备份哦
auto_update_tool=False

# ---------------------------------------------------------下方为请求的相关设置-----------------------------------------------------
# headers:发送请求时候的请求头
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36",
}
# 是否探测域名的另一个协议存活，当这个选项开启后，当原始url为：https://abc.com 时 https://abc.com 和 http://abc.com 都会进行存活探测
replace_protocol=True
# headmode:截屏探测是否是要无头浏览器模式:
headmode=True
# screensemaphore:截屏探测的并发数量,建议不要太大:
screensemaphore=30
# exploresemaphore:存活探测的并发数量,建议不要太大:
exploresemaphore=125
# tcp_limit:系统创建的连接数，如果出现错误：too many file descriptors in select() 可以将下方值调小一些 例如 60 如果tcp_limit的值变小 建议将exploresemaphore也要减小一些
tcp_limit=65
# 是否强制关闭tcp连接,如果出现错误：too many file descriptors in select() 首先试试将默认的False其改为True，如果还是不行，再调小tcp_limit的值
# （默认开启tcp连接复用加快速度，但是有些系统连接可能无法自动释放）强制关闭连接也就只是会慢那么一丢丢而已
force_close_tcp=False
# width、height:截屏探测的截图尺寸大小(单位:像素)
width=1400
height=850
# screnn_timeout:截屏探测超时时间(根据自己网速设置，单位:毫秒)
screnn_timeout=8000
# explore_timeout:存活探测超时时间(根据自己网速设置，单位:秒)
explore_timeout=6
# exclude_e:存活探测 排除的一些后缀类型
exclude_e=['js','css','png','jpg','jpeg','gif']
# exclude_s:截屏探测 排除的一些后缀类型
exclude_s=['css','png','jpg','jpeg','gif']
# autoUpdate_Host:是否根据请求域名自动添加host,如果大家不确定就默认设为False就好了
autoUpdate_Host=False
# url访问 失败后 的重试次数 重试失败会增加任务时间但是也会增加准确率,如果要保证准确率的情况下建议设置失败重试的次数
max_retries=1
# 指定DNS解析，内置的分别为阿里、Cloudflare,DNS有时也会影响结果哦~
dns_list=['223.5.5.5', "1.1.1.1"]
# get_params:get请求传递的参数，例如{"key1":"value1"}
get_params=None
# post_data:post请求传递的参数，例如{"key1":"value1"}
post_data=None