import numpy as np
import pandas as pd
# 引入数据集,鸢尾花
from sklearn.datasets import load_iris
# 切分数据集为训练集和测试集
from sklearn.model_selection import train_test_split
# 计算分类预测的准确率
from sklearn.metrics import accuracy_score

# 数据集
iris = load_iris()
df = pd.DataFrame(data=iris.data,columns=iris.feature_names)
# 加一列数据
df['class'] = iris.target
# 0 ==> setosa 把数字换位对应的名字
df['class'] = df['class'].map({0:iris.target_names[0],1:iris.target_names[1],2:iris.target_names[2]})
# 数据集的统计信息,平均数,个数,最大值,最小值
# print(df.describe())
x=iris.data
y=iris.target.reshape(-1,1)
# 划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=35,stratify=y)
# 核心算法
# 距离函数定义-曼哈顿距离
def l1_distance(a,b):
    return np.sum(np.abs(a-b),axis=1)
# 距离函数定义-欧式距离
def l2_distance(a,b):
    return np.sqrt(np.sum((a-b)**2,axis=1))
# 分类器实现
class kNN(object):
    def __init__(self,n_neighbors=1,dist_func=l1_distance):
        self.n_neighbors=n_neighbors
        self.dist_func=dist_func
    # 训练模型的方法
    def fit(self,x,y):
        self.x_train=x
        self.y_train=y
    # 模型预测方法
    def predict(self,x):
        # 初始化预测分类数组
        y_pred=np.zeros((x.shape[0],1),dtype=self.y_train.dtype)
        # 遍历输入的数据点
        for i,x_test in enumerate(x):
            # x_test和所有的训练数据计算距离
            distances=self.dist_func(self.x_train,x_test)
            # 排序
            nn_index=np.argsort(distances)
            # 选取最近的k个点,保存对应的分类类别
            nn_y=self.y_train[nn_index[:self.n_neighbors]].ravel()
            # 统计类别中出现频率最高的那个,赋给y_pred[i]
            y_pred[i]=np.argmax(np.bincount(nn_y))
        return y_pred
# 测试
knn=kNN(n_neighbors=1)
# 训练
knn.fit(x_train,y_train)
# 传入测试数据,做预测
y_pred=knn.predict(x_test)
# 求出预测准确率
accuracy=accuracy_score(y_test,y_pred)
print(accuracy)





