"""
学会并应用scrapy+学会并应用scrapyd+docker+(scrapy+scrapyd部署)+ 分布式爬虫部署完成 
以上加起来一周完成，1. http://www.hngp.gov.cn/henan/getImage/3548a1dc557449a2a4632eca166ed86f，【http://www.hngp.gov.cn/henan/ggcx】
2. http://120.35.30.176/noticeverifycode/?1【http://120.35.30.176/3500/noticelist/e8d2cd51915e4c338dc1c6ee2f02b127/】)
识别验证码，并且爬列表，不能用第三方
"""
# TODO:验证码识别，1. http://www.hngp.gov.cn/henan/getImage/3548a1dc557449a2a4632eca166ed86f
# TODO: 河南省政府采购网：http://www.hngp.gov.cn/henan/ggcx
# TODO: 验证码识别：http://120.35.30.176/noticeverifycode/?1
# TODO: 福建省政府采购网：http://120.35.30.176/3500/noticelist/e8d2cd51915e4c338dc1c6ee2f02b127/
# TODO: CentOS 中 安装Docker环境安装学习，Docker 中 安装  Scrapy、scrapy_redis、scrapyd
# TODO: scrapyd部署学习
# TODO: 分布式爬虫学习


