﻿#第一个爬虫
# from urllib import request
# init_url = "http://www.baidu.com"
# req = request.Request(init_url)
# with request.urlopen(req) as data:
	# print(data.read())
	# print("status:",data.status,data.reason)
##三
##################POST方式是不在url上显示参数
# import urllib
# import urllib2
 
# values = {}
# values['username'] = "1016903103@qq.com"
# values['password'] = "XXXX"
# data = urllib.urlencode(values) 
# url = "http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
# request = urllib2.Request(url,data)
# response = urllib2.urlopen(request)
# print response.read()

################GET方式是在url上带上参数
# import urllib
# import urllib2
 
# values={}
# values['username'] = "1016903103@qq.com"
# values['password']="XXXX"
# data = urllib.urlencode(values) 
# url = "http://passport.csdn.net/account/login"
# geturl = url + "?"+data
# request = urllib2.Request(geturl)
# response = urllib2.urlopen(request)
# print response.read()

##四
# 1、header的设置
# User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求
# Content-Type : 在使用 REST 接口时，服务器会检查该值，用来确定 HTTP Body 中的内容该怎样解析。
# application/xml ： 在 XML RPC，如 RESTful/SOAP 调用时使用
# application/json ： 在 JSON RPC 调用时使用
# application/x-www-form-urlencoded ： 浏览器提交 Web 表单时使用
# 在使用服务器提供的 RESTful 或 SOAP 服务时， Content-Type 设置错误会导致服务器拒绝服务
# 2、proxy代理

##六
# 1、保存cookie到变量
