# -*- coding: utf-8 -*-
import requests

"""
url:https://fanyi.so.com/#
需求: 爬虫翻译软件
1.确定url

数据为空(考虑反爬)
post: 额外携带载荷数据
"""

url = 'https://fanyi.so.com/index/search?eng=1&validate=&ignore_trans=0&query=hello'

trs = input('请输入翻译的内容:')
lenght = len(trs[0].encode('utf-8'))  # 中文是占3个字节  英文占了1个字节
if lenght == 3:
    eng = 0
else:
    eng = 1

# post请求需要额外携带的参数(已经额外携带的载荷当中的数据，但还是没有数据)
data = {
    'eng': eng,
    'ignore_trans': 0,
    'query': trs
}


"""
1.选中要转为字典的内容
2.按ctrl加r快捷键
.: 匹配任意一个字符
*: 可以让表达式出现0次或任意次
.*: 可以匹配任意多个字符串
"""
dic = {
    'accept': 'application/json, text/plain, */*',
    'accept-encoding': 'gzip, deflate, br, zstd',
    'accept-language': 'zh-CN,zh;q=0.9',
    'content-length': '0',
    'cookie': 'QiHooGUID=2CCCF17601B6E0FF6F4F31E7A0271391.1712132582836; Q_UDID=9e0188f2-3c93-4d6d-48cf-297b9959e333; __guid=144965027.1338676427911340500.1712132583104.1982; count=3',
    'origin': 'https://fanyi.so.com',
    'priority': 'u=1, i',
    'pro': 'fanyi',
    'referer': 'https://fanyi.so.com/',
    'sec-ch-ua': '"Google Chrome";v="129", "Not=A?Brand";v="8", "Chromium";v="129"',
    'sec-ch-ua-mobile': '?0',
    'sec-ch-ua-platform': '"Windows"',
    'sec-fetch-dest': 'empty',
    'sec-fetch-mode': 'cors',
    'sec-fetch-site': 'same-origin',
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36',

}

# headers: 反爬参数的关键字
res = requests.post(url, data=data, headers=dic)

# 打印相应内容
print(res.json()['data']['fanyi'])  # 转化成了字典数据类型
"""
看到的响应内容类似于字典数据类型的
可以调用.json方法，转化成字典数据类型
"""