# -*- encoding: utf-8 -*-
from numpy import *
import matplotlib.pyplot as plt
import operator

"""
收集数据：提供文本文件
准备数据：使用 Python 解析文本文件
分析数据：使用 Matplotlib 画二维散点图
训练算法：此步骤不适用于 k-近邻算法
测试算法：使用海伦提供的部分数据作为测试样本。
   - 测试样本和非测试样本的区别在于：
   - 测试样本是已经完成分类的数据，如果预测分类与实际类别不同，则标记为一个错误。
使用算法：产生简单的命令行程序，然后海伦可以输入一些特征数据以判断对方是否为自己喜欢的类型。
"""


def file2matrix(filename):
    """
    Desc:
        导入训练数据
    parameters:
        filename: 数据文件路径
    return:
        数据矩阵 returnMat 和对应的类别 classLabelVector
    """
    with open(filename) as fr:
        # 获得文件中的数据行的行数
        numberOfLines = len(fr.readlines())
        # 生成对应的空矩阵
        # 例如：zeros(2，3)就是生成一个 2*3的矩阵，各个位置上全是 0
        returnMat = zeros((numberOfLines, 3))  # prepare matrix to return
        classLabelVector = []  # prepare labels return
    with open(filename) as fr:
        index = 0
        for line in fr.readlines():
            # str.strip([chars]) --返回已移除字符串头尾指定字符所生成的新字符串
            line = line.strip()
            # 以 '\t' 切割字符串
            listFromLine = line.split('\t')
            # 每列的属性数据
            returnMat[index, :] = listFromLine[0:3]
            # 每列的类别数据，就是 label 标签数据
            classLabelVector.append(int(listFromLine[-1]))
            index += 1
    # 返回数据矩阵returnMat和对应的类别classLabelVector
    return returnMat, classLabelVector


def autoNorm(dataSet):
    """
    Desc:
        归一化特征值，消除特征之间量级不同导致的影响
    parameter:
        dataSet: 数据集
    return:
        归一化后的数据集 normDataSet. ranges和minVals即最小值与范围，并没有用到

    归一化公式：
        Y = (X-Xmin)/(Xmax-Xmin)
        其中的 min 和 max 分别是数据集中的最小特征值和最大特征值。该函数可以自动将数字特征值转化为0到1的区间。
    """
    # 计算每种属性的最大值、最小值、范围
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    # 极差
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    # 生成与最小值之差组成的矩阵
    """
    tile(A, reps)
    Parameters
    ----------
    A : array_like
        The input array.
    reps : array_like
        The number of repetitions of `A` along each axis.

    Returns
    -------
    c : ndarray
        The tiled output array.
    eg : tile(minVals, (m, 1))   
    将minVals矩阵在行方向重复m次，在列方向重复1次
    """
    normDataSet = dataSet - tile(minVals, (m, 1))
    # 将最小值之差除以范围组成矩阵
    normDataSet = normDataSet / tile(ranges, (m, 1))  # element wise divide
    return normDataSet, ranges, minVals


# 读取文件数据集，并进行归一化处理
datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
datingDataMat, ranges, minVals = autoNorm(datingDataMat)
# 利用数据集的第一个第二个特征值绘制散点图
fig = plt.figure()
ax = fig.add_subplot(111)
"""
scatter(x, y, s, c)
其中x和y是输入数据，相同长度的数组序列，相当于散点图的x和y轴
s是散点图中点的大小，默认是0，代表没有点，可以是一个数字或者与xy相同长度的数组序列
c是散点的颜色，是与xy相同长度的数组序列
"""
ax.scatter(datingDataMat[:, 0], datingDataMat[:, 1], 15.0 * array(datingLabels), 15.0 * array(datingLabels))
plt.show()


# 分类函数
def classify0(inX, dataSet, labels, k):
    """
    计算inX与数据集各点的距离，将距离从小到大排序，找出前k个距离，选区k中最多的分类，则得到inX的分类
    计算距离过程：
        1. 先将一维矩阵inX复制成dataSet行数的矩阵
        2. 再将两个矩阵相减
        3. 并将相减的结果矩阵中每个元素进行平方
        4. 再将每行矩阵的元素各自相加的结果开根号
    :param inX: 需要分类的数据
    :param dataSet: 已经分好类的数据集
    :param labels: 已经分好类数据集对应的分类
    :param k: 前k个最小的距离
    :return: inX的分类
    """
    dataSetSize = dataSet.shape[0]
    # 距离度量 度量公式为欧氏距离
    diffMat = tile(inX, (dataSetSize, 1)) - dataSet
    sqDiffMat = diffMat ** 2
    """
    sum:将矩阵n * m的所有元素进行相加
    axis=0：每一列数据相加，得到1 * m矩阵
    axis=1：每一行数据相加，得到1 * n矩阵
    """
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances ** 0.5

    # 将距离排序：从小到大
    """
    argsort函数返回的是数组值从小到大的索引值组成的数组
    """
    sortedDistIndicies = distances.argsort()
    # 选取前K个最短距离， 选取这K个中最多的分类类别
    classCount = {}
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
    # sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
    sortedClassCount = sorted(classCount.items(), key=lambda x: x[1], reverse=True)
    print('sortedClassCount: ', sortedClassCount)
    return sortedClassCount[0][0]


# 测试分类函数，使用数据集中10%的数据作为测试数据，测试KNN算法的准确性
def datingClassTest():
    """
    Desc:
        对约会网站的测试方法
    parameters:
        none
    return:
        错误数
    """
    # 设置测试数据的的一个比例（训练数据集比例=1-hoRatio）
    hoRatio = 0.1  # 测试范围,一部分测试一部分作为样本
    # 从文件中加载数据
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')  # load data setfrom file
    # 归一化数据
    normMat, ranges, minVals = autoNorm(datingDataMat)
    # m 表示数据的行数，即矩阵的第一维
    m = normMat.shape[0]
    # 设置测试的样本数量， numTestVecs:m表示训练样本的数量
    numTestVecs = int(m * hoRatio)
    print('numTestVecs=', numTestVecs)
    errorCount = 0.0
    for i in range(numTestVecs):
        # 对数据测试
        classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m], 3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]))
        if (classifierResult != datingLabels[i]):
            errorCount += 1.0
    print("the total error rate is: %f" % (errorCount / float(numTestVecs)))
    print("errorCount: ", int(errorCount))


# 将代码封装成交互式程序
def classifyPerson():
    resultList = ['not at all', 'in small doses', 'in large doses']
    percentTats = float(input("percentage of time spent playing video games ?"))
    ffMiles = float(input("frequent filer miles earned per year?"))
    iceCream = float(input("liters of ice cream consumed per year?"))
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    inArr = array([ffMiles, percentTats, iceCream])
    classifierResult = classify0((inArr - minVals) / ranges, normMat, datingLabels, 3)
    print("You will probably like this person: ", resultList[classifierResult - 1])


if __name__ == '__main__':
    # datingClassTest()
    classifyPerson()
