"""
根据所需，下载规定页数的页面内容。
下载网址：http://www.haha56.net/xiaohua/zuixin/
分析：
第一页时，地址：http://www.haha56.net/xiaohua/zuixin/index_13_1.html
第二页时，地址：http://www.haha56.net/xiaohua/zuixin/index_13_2.html
第三页时，地址：http://www.haha56.net/xiaohua/zuixin/index_13_3.html
...
第 n 页时，地址：http://www.haha56.net/xiaohua/zuixin/index_13_n.html

整个的变量，即 data 只有 n 一个。


"""

from urllib.request import urlopen, urlretrieve, Request

#  API 接口
url = 'http://www.haha56.net/xiaohua/zuixin/'

# 请求头
headers = {
	'Cookie': 'Hm_lvt_9b496e3d6adef11b924b6b261a56dff8=1610579303; Hm_lpvt_9b496e3d6adef11b924b6b261a56dff8=1610594423',
	'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36',
	'Host': 'www.haha56.net'
}


def download_haha(pages):
	for page in range(1, pages):
		new_url = url + 'index_13_' + str(page) + '.html'
		req = Request(url=new_url, headers=headers)
		resp = urlopen(req)
		resp_data = resp.read()
		filename = 'download_haha/index_13_%s.html' % page
		with open(filename, 'wb') as file:
			file.write(resp_data)
			print(f'{filename} 下载成功！')

		# urlretrieve(url=new_url,filename=filename)


if __name__ == '__main__':
	download_haha(6)
