import pandas as pd
import numpy as np
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LogisticRegression
from sklearn.linear_model import SGDClassifier

from sklearn.metrics import classification_report


""" method
创建特征列表
Sample code number: 样本编码
Clump Thickness: 细胞的厚度
Uniformity of Cell Size: 均匀的细胞大小
Uniformity of Cell Shape: 均匀的细胞形状
Marginal Adhesion: 边际附着力
Single Epithelial Cell Size: 单一的上皮细胞大小
Bare Nuclei: 裸核
Bland Chromatin: 染色质
Normal Nucleoli: 核仁
Mitoses: 有丝分裂
Class: 类别
"""
def createColumn():
    return ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size', 'Uniformity of Cell Shape', 'Marginal Adhesion'
            'Single Epithelial Cell Size', 'Bare Nuclei', 'Bland Chromatin', 'Normal Nucleoli', 'Mitoses', 'Class']


column_names = createColumn()

# 读取数据
data = pd.read_csv('PythonMachineLearningAndPractice/data/section02/01BreastCancerWiscosin/breast-cancer-wisconsin.data.txt', names=column_names)
# 将？替换为标准缺失值表示
data = data.replace(to_replace='?', value=np.nan)
# 丢弃带有缺失值的数据(只要有一个维度有缺失)
data = data.dropna(how='any')
# print(data.shape)
# print(data[column_names[9]])

# 由于原始数据没有提供对应的测试样本用于评估模型的性能，因此需要对带有标记的数据进行分割，通常情况下，25%的数据会作为测试集，其余75%的数据用于训练
# 使用sklearn.cross_valiation里的train_test_splite模块用于分割数据
# 随机采样25%的数据用于测试，剩下的75%用于构建训练集合
X_train, X_test, y_train, y_test = train_test_split(data[column_names[1:9]], data[column_names[9]], test_size=0.25, random_state=33)

# 查验训练样本的数量和类别分布
# print(y_train.value_counts())
# 查验测试样本的数量和类别分布
# print(y_test.value_counts())
# 根据上面得知：1）我们用于训练共有512条(344条良性肿瘤数据，168条恶性肿瘤数据) 2）测试样本有171条(100条良性肿瘤数据、71条恶性肿瘤数据)


# 标准化数据，保证每个维度的特征数据方差为1，均值为0，使得预测结果不会被某些维度过大的特征值而主导
# 这对于我来说非常重要，我曾经因为担心数据某些特征值数值太大，会影响到模型的正确性，如此看来sklearn为我们的数据标准化处理做了封装
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

# 初始化LogisticRegression与SGDClassifier
lr = LogisticRegression()
sgdc = SGDClassifier()


# 调用LogisticRegression中的fit函数/模块来训练模型参数
lr.fit(X_train, y_train)
# 使用训练好的模型lr对X_test进行预测，结果存储在变量lr_y_predict中 || lr为已训练好的模型
lr_y_predict = lr.predict(X_test)
# 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果
print('逻辑斯蒂回归预测准确率:', lr.score(X_test, y_test))
# 利用 classification_report模块获得LogisticRegression其他三个指标的结果
print(classification_report(y_test, lr_y_predict, target_names=['Benign', 'Malignant']))


# 调用SGDClassifier中的fit函数/模块用来训练模型参数
sgdc.fit(X_train, y_train)
# 使用训练好的模型sgdc对X_test进行预测，结果存储在变量sgdc_y_predict中 || sgdc为已训练好的模型
sgdc_y_predict = sgdc.predict(X_test)
# 使用随机梯度下降模型自带的评分函数score获得模型在测试集上的准确性结果
print('使用随机梯度下降模型预测准确性:', sgdc.score(X_test, y_test))
# classification_report模块获得SGDClassifier其他三个指标的结果
print(classification_report(y_test, sgdc_y_predict, target_names=['Benign', 'Malignant']))