# Beautifulsoup Requests
# https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/
from bs4 import BeautifulSoup  # 引入BeautifulSoup的方式,网页源数据
# soup = BeautifulSoup(html,'html.parser')
# 和xpath比较像 xpath是语法 - 正则表达式
import requests  # GET/POST 请求来获取文件，当然也可以直接获取网页内容/源数据
# 获取b站的数据，使用bilibiliapi
from bilibili_api import video, sync, Credential
# 微博超级爬虫 使用request库
# urllib3库用来禁止警告
import urllib3
requests.packages.urllib3.disable_warnings()
# 豆瓣数据获取 - fake_useragent 假的 header
# from fake_useragent import UserAgent
# 猫眼票房爬取，使用了xpath的语法
from lxml import etree
# 音乐爬取
import urllib.parse  # 解码的汉字转换成字符串
# Cookie的获取F12开发者工具
# 分布式爬虫Scrapy（框架）,项目,创建
# 文档 https://www.osgeo.cn/scrapy/intro/tutorial.html#creating-a-project
# 创建一个爬虫后，需要进行运行
