import urllib.request

import requests
import scrapy


class BaiduSpider(scrapy.Spider):
    # 爬虫名字  用于运行爬虫使用的值
    name = "baidu"
    # 允许访问的域名
    allowed_domains = ["www.baidu.com"]
    # 起始的url地址  第一次访问的域名
    # start_urls是在allowed_domains的前面个添加http
    # 在allowed_domains后面添加/
    start_urls = ["http://www.baidu.com/"]

# 执行了起始url后   执行的 方法
#   其中的response就是返回的那个对象
#     相当于 response=urllib.request.urlopen()
#     response=requests.get()
    def parse(self, response):
        print("哈哈哈")
