from sklearn import datasets
from sklearn.model_selection import train_test_split

# 使用load_*(*代表数据集名字)来获取小数据集
iris = datasets.load_iris()  # 返回值是一列继承自字典的数据
# 使用fetch—_*获取大数据集（参数1=下载到哪，参数2="test""train""all"训练集测试集和全集）
# news_20_group = datasets.fetch_20newsgroups(data_home="../data_home")
print("数据集的数据： \n", iris["data"])
print("数据集的介绍：\n", iris["DESCR"])
print("数据集的特征属性: \n", iris.feature_names)
print("数据集的大小是: \n", iris.data.shape)
# 数据集共有五个键data, target(标签), DESCR(数据描述), feature_names, target_names(标签名)

"""
使用数据集时需要对其进行划分，划分为训练集和测试集
"""
x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=22)
# test_size默认为0.25
# print(x_train.shape)