#!/usr/bin/env python
# -*- coding: utf-8 -*-

import urllib2


# 爬虫，与反爬虫斗争的第一步
ua_headers = {
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE"
}

#通过urllib2.Request()方法构造一个请求对象,可定制head头避免写死UA导致容易检测
request = urllib2.Request("http://www.baidu.com/",headers=ua_headers)

#向指定的URL地址发送请求，并返回服务器响应的类文件对象
# 例如：<addinfourl at 3059974988L whose fp = <socket._fileobject object at 0xb668cb6c>>
response = urllib2.urlopen(request)

#服务器返回的类文件对象支持python文件对象的操作方法
#read()方法就是读取文件里的全部内容，返回字符串
html = response.read()

#打印响应内容
print(html)