# -*- coding:utf-8 -*-
# --author： jingfeng 
# time: 2019/8/9


import requests
import json

# 访问scrapyd的一些关键url查看信息
# 远程访问，修改IP
# 查看特点项目的需要在%s格式化后面传递项目名称，lists_pd_url，lists_pdv_url，list_job_url
base_url = 'http:127.0.0.1:6800'
# 获取状态，
daem_url = 'http:127.0.0.1:6800/daemonstatus.json'
# 获取项目列表
list_projects_url = 'http:127.0.0.1:6800/listprojects.json'
# 获取项目下已发布的爬虫列表，需要传递项目参数
list_spd_url = 'http:127.0.0.1:6800/listspiders.json?project=%s'
# 获取项目下已发布的爬虫版本列表 需要传递项目参数
lists_pdv_url = 'http:127.0.0.1:6800/listversions.json?project=%s'
# 获取爬虫运行状态 ，传递项目参数
list_job_url = 'http:127.0.0.1:6800/listjobs.json?project=%s'
# 删除某一版本爬虫 ，post方法 ，data={'project':项目名称,'version':需要删除的版本号}
del_spdv_url = 'http://127.0.0.1:6800/delversion.json'

# 启动服务器上某一个爬虫(必须是已经发布到服务器上的),post方法
# post方法，data={'project':项目名称,'spider':'爬虫的名字'}
start_project_url = 'http://127.0.01:6800/schedule.json'

# 删除某一个工程，包括所有的版本号
# post方法，data={'project':项目名称}
del_project = 'http://127.0.0.1:6800/delproject.json'


# 取消一个项目运行,post, data={'project':项目,'spider':'爬虫的名字'}
stop_spider_url='http://127.0.0.1:6800/cancel.json'

r = requests.get(base_url)
print('status')

# 查看有多少个工程
list_projects=requests.get(list_projects_url)
print(' 查看工程',list_projects)