import math

import matplotlib.pyplot as plt
import numpy as np
import torch
from transformers import BertTokenizer, BertModel

# # 根据模型名称加载
# # 第一次会在线加载模型，并且保存至用户子目录"\.cache\torch\transformers\"
# tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
# bert = BertModel.from_pretrained('bert-base-uncased')
#
#
# text_list = ["我爱中华大地。我没有钱", "我爱你", "我是中国人", "I love you", "你是个什么东西", "哎呦我去，发生什么事了"]
#
# inputs_test = tokenizer(text_list)
# print(tokenizer.convert_ids_to_tokens(inputs_test['input_ids'][0]))
# inputs = tokenizer(text_list, return_tensors="pt", padding=True)  # 长度不等时会进行填充
# print(inputs)
#
#
# outputs = bert(**inputs)
#
# #print(tokenizer.convert_ids_to_tokens(inputs['input_ids']))
# print("output的结果")
# print(outputs[0])
# print(outputs[0].shape)
# # (6,13,768)    表示六个句子，每句13个词，共有768维
# print(outputs[1].shape)
# print(outputs[1])

x = np.arange(0, 1, 0.01)  # 得到离散的0——10的，步长为0.01的nd array
y = np.arange(0, 1, 0.01)
for i in range(10):
    y[i] = math.sqrt(1-x[i]**2)
plt.plot(x, y, 'r-')      #   ’r‘代表线的颜色为红色，‘-’代表将各个离散点连起来(默认)，如果为r.则为离散点
plt.show()