# coding=utf-8
# 学习单位  : 郑州大学
# @Author  : 铭同学
# @Time    : 2021/10/11 18:01
# @Software: PyCharm

# 线性回归实现二分类问题
import torch
import numpy as np
# 在pytorch中帮助加载数据
from torch.utils.data import Dataset    # 抽象类，需要继承并实现
from torch.utils.data import DataLoader
# import torch.nn.functional as F #导入函数包

# 准备数据(如果只有一列数据也要扩展为矩阵)--糖尿病数据集（从sklearn从获取的）
class DiabetesDataset(Dataset):# 自己定义数据集操作类（本地数据集）

    # 数据初始化
    def __init__(self, filepath_x, filepath_y):
        x = np.loadtxt(filepath_x, delimiter=' ', dtype=np.float32)
        y = np.loadtxt(filepath_y, delimiter=' ', dtype=np.float32)
        self.len = y.shape[0]
        self.x_data = torch.from_numpy(x)
        self.y_data = torch.from_numpy(y.reshape(442,1)) #扩展为矩阵

    # 根据索引获取每个样本
    def __getitem__(self, index):
        return self.x_data[index], self.y_data[index]

    # 获取数据长度
    def __len__(self):
        return self.len

# 实例化数据集
dataset = DiabetesDataset('../dataset/diabetes_data.csv.gz','../dataset/diabetes_target.csv.gz')
train_loader = DataLoader(dataset=dataset   # 数据集
                          ,batch_size=32    # Mini-Batch大小
                          ,shuffle=True     # 是否打乱顺序
                          ,num_workers=3    # 开启进程数（多进程）
                          )

# 设置分类器
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        # 线性关系进行维度变化（多层线性层）
        self.linear1 = torch.nn.Linear(10,8)
        self.linear2 = torch.nn.Linear(8,6)
        self.linear3 = torch.nn.Linear(6,4)
        self.linear4 = torch.nn.Linear(4,2)
        self.linear5 = torch.nn.Linear(2,1)
        # 添加非线性层--也称为激活函数
        self.sigmoid = torch.nn.Sigmoid()

    def forward(self, x):
        # 前一层的结果就是后一层的输入（用一个变量进行传递可以减少人工失误）
        x = self.sigmoid(self.linear1(x))
        x = self.sigmoid(self.linear2(x))
        x = self.sigmoid(self.linear3(x))
        x = self.sigmoid(self.linear4(x))
        x = self.sigmoid(self.linear5(x))
        return x
# 模型实例化
model = Model()

# 初始化loss和优化器函数(随机梯度下降)
criterion = torch.nn.BCELoss(reduction='sum')  # BCE--二分类交叉熵损失（专门处理二分类问题的）
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)



# 果然使用mini-batch计算速度比较缓慢
# 使用mini-batch计算时必须把循环放入"if __name__ == '__main__':"中，否则报错
if __name__ == '__main__':
    # Training Cycle 开始训练轮次  forward、梯度清零、backward、update
    for epoch in range(100):    # 训练循环次数
        # for i,data in enumerate(train_loader, 0):    # 循环遍历每个Mini-Batch
        #     # Prepare Data
        #     input, label = data
        for i,(input,label) in enumerate(train_loader, 0):    # 循环遍历每个Mini-Batch

            # Forward
            y_pred = model(input)
            loss = criterion(y_pred, label)
            print(f'训练轮次：{epoch}', f'本轮次第{i}个batch', f'该batch损失：{loss.item()}')

            # Backward
            optimizer.zero_grad()   # 梯度清零，避免累加
            loss.backward()

            # Update
            optimizer.step()

