# request 基础
import requests

import io
import sys
sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='utf-8')
# head() get() post() put() patch() delete() request()
# **kwargs 可选参数
# params :  添加到url后面作为参数
# data ： 作为data内容参数发送
# JSON ：
# headers：
# cookies
# auth ： 支持HTTP认证
# files ： 传输文件
# timeout： 设定超市时间
# proxies： 添加代理服务器
# allow_redirects: 重定向开关
# stream : 获取内容立即下载开关
# verify :  认证SSL开关
# cert: 本地SSL证书路径

# 爬虫基础框架，需处理异常
def getHTMLText(url):
	try:
		r = requests.get(url,timeout=30)
		print(r.headers)
		r.raise_for_status()
		r.encoding = r.apparent_encoding
		return r.text
	except Exception as e:
		print(e)
		return '产生异常'
			
if __name__ == '__main__':
	url = 'http://www.baidu.com'
	print(getHTMLText(url))
