#封装为模块——不通过pycharm，另存为，放入python安装目录的“Lib”目录下
#from xxxx import *

#导入模块下面这两行代码必写
import sys
sys.path.append("..")
#看来package下的文件命名可以用大写字母开头
#from self_defining.mine_ip_get import *
from self_defining.ip_fengzhuang import *
import urllib.request

"""
data = ua_ip("https://www.baidu.com/")ip_fengzhuang
fh = open("","w",encoding = "utf-8")
#这里要注意，data是已经用decode解过码的数据，所以是“w”方式写入，但是写入文件的时候要加码encoding，可见：urlretrieve自动加码了！！！！
fh.write(data)
fh.close()
#运行结果是E，API接口获取IP网站显示的第一个字母，估计实际爬的过程中还是用的我自己的本地ip
"""

#网址中的编码项可以留下来；虚拟主机、云服务器,在这些之上搭建代理ip


"""
微信公众号的上一个版本中的反爬机制中并没有涉及到js加密，仅通过监控用户ip，单个ip访问太频繁会面临被封的风险；在新的版本中加入了js加密反爬机制，接下来我们来逐步分析一下文章爬取过程
"""

key = "Python"
key_code = urllib.request.quote(key)
for i in range(4):
    this_page_url = "https://weixin.sogou.com/weixin?query=" + key_code +"&type=2&page=" + str(i+1)
    this_page_data = ua_ip(this_page_url)
    print("第" + str(i+1) + "页文件长度为：" + str(len(this_page_data)))

    #运行的结果其实都是验证码！！！这个只有后面再解决了！！！

    fh = open("C:\\Users\\DELL\\Desktop\\python操作文件夹\\微信爬虫实战" + str(i+1) + ".html", "w",encoding = "utf-8")
    fh.write(this_page_data)
    fh.close()
    print("---------------------------------------")

#安装了fiddler，有了本地的ip地址


