
'''
scrapy 创建项目
scrapy startproject yourprojectname 

'''
# 执行爬虫 scrapy crawl article(自定义的名称) 
# scrapy crawl article -s LOG_FILE=wiki.log 设置日志文件

#通过命令 scrapy crawl article -o article.json -t json 可以把抓取的信息保存到json文件 
'''
保存数据格式文件的命令

$ scrapy crawl article -o articles.csv -t csv
$ scrapy crawl article -o articles.json -t json
$ scrapy crawl article -o articles.xml -t xml

'''

'''

2017年6月28日12:21:02： http://blog.csdn.net/zjiang1994/article/details/52689144 
安装scrapy不成功 通过whl文件安装 http://www.lfd.uci.edu/~gohlke/pythonlibs/ 这里可以下载 
其他库也一样 通过下载whl文件安装成功率高很多
需要安装win32api https://sourceforge.net/projects/pywin32/files/ 这里下载
在虚拟环境中安装 win32api :
easy_install D:/zhh/soft/pywin32-221.win-amd64-py3.6.exe

easy_install 可以轻松把exe类型的库或者API安装到Python的虚拟环境

scrapy 博客 http://blog.csdn.net/zjiang1994/article/details/52779537
tesseract训练识别中文
http://www.cnblogs.com/wzben/p/5930538.html

爬虫知识要求 pyspider webmagic Xpath scrapy 


'''
