from typing import Any

import numpy as np
import paddle
from paddle.nn import Linear
import paddle.nn.functional as F

def load_data():
    data = np.fromfile('housing.data', sep=' ', dtype=np.float32)

    # 每条数据包括14项，其中前面13项是影响因素，第14项是相应的房屋价格中位数
    feature_names = ['CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE',
                     'DIS', 'RAD', 'TAX', 'PTRATIO', 'B', 'LSTAT', 'MEDV']

    feature_num = len(feature_names)

    # 变维前数据
    print(data.shape)

    # 将原始数据进行Reshape，变成[N, 14]这样的形状
    data = data.reshape([data.shape[0] // feature_num,feature_num])

    # 变维后数据
    print(data.shape)

    # 将原始数据集拆分成训练集和测试集
    # 使用80%的数据做训练，20%的数据做测试，测试集和训练集不能存在交集
    ratio = 0.8
    offset = int(data.shape[0] * ratio)
    train_data = data[:offset]

    # 找出每一列的最大值和最小值
    maximums,minimums = train_data.max(axis=0),train_data.min(axis=0)

    # 记录数据归一化参数，在测试时对数据进行归一化
    global max_values
    global min_values

    max_values = maximums
    min_values = minimums

    # 对数据进行归一化处理
    for i in range(feature_num):
        data[:,i] = (data[:,i] - max_values[i]) /(max_values[i] - min_values[i])

    # 划分训练集和测试集
    train_data = data[:offset]
    test_data = data[offset:]

    return train_data,test_data

def load_one_example():
    # 从测试集中随机选择一条作为推理数据
    idx = np.random.randint(0,test_data.shape[0])
    # idx = -10
    one_data,label = test_data[idx,:-1],test_data[idx,-1]
    # 将数据格式修改为[1,13]
    one_data = one_data.reshape([1,-1])

    return one_data,label

class Regressor(paddle.nn.Layer):

    def __init__(self):
        # 初始化父类中的一些参数
        super(Regressor,self).__init__()
        # 定义一层全连接层，输入维度是13，输出维度是1
        self.fc = Linear(in_features=13,out_features=1)

    # 网络的前向计算
    def forward(self,inputs):
        x = self.fc(inputs)
        return x


# 声明定义好的线性回归模型
model = Regressor()
# 开启模型训练模式，模型的状态设置为train
model.train()
# 使用load_data加载训练集数据和测试集数据
train_data,test_data = load_data()
# 定义优化算法，采用随机梯度下降SGD
# 学习率设置为0.01
opt = paddle.optimizer.SGD(learning_rate=0.005,parameters=model.parameters())

epoch_num = 20
batch_size = 10

# 定义模型训练轮次epoch(外层循环)
for epoch_id in range(epoch_num):
    # 在每轮迭代开始之前，对训练集数据尽心样本乱序
    np.random.shuffle(train_data)
    # 对数据进行拆分，batch_size设置为10
    mini_batches = [train_data[k:k+batch_size] for k in range(0,len(train_data),batch_size)]
    for iter_id,mini_batches in enumerate(mini_batches):
        # 将当前批的房价影响因素的数据转换为np.array格式
        x = np.array(mini_batches[:,:-1])
        # 将当前批的标签数据（真实房价）转换为np.array格式
        y = np.array(mini_batches[:,-1:])
        # 将np.array格式的数据转为张量tensor格式
        house_features = paddle.to_tensor(x,dtype='float32')
        prices = paddle.to_tensor(y,dtype='float32')

        # 前向计算
        predicts = model(house_features)

        # 计算损失，损失函数采用平方误差square_error_cost
        loss = F.square_error_cost(predicts,label=prices)
        avg_loss = paddle.mean(loss)

        if iter_id % 20 == 0:
            print("epoch: {},iter: {},loss is: {}".format(epoch_id,iter_id,avg_loss.numpy()))

        # 反向传播，计算每层参数的梯度值
        avg_loss.backward()
        # 更新参数，根据设置好的学习率迭代一步
        opt.step()
        # 清空梯度变量，进行下一轮计算
        opt.clear_grad()

paddle.save(model.state_dict(), 'LR_model.pdparams')
print("模型保存成功，模型参数保存在LR_model.pdparams中")

model_dict = paddle.load('LR_model.pdparams')
model.load_dict(model_dict)
# 将模型状态修改为.eval
model.eval()

one_data,label = load_one_example()
# print('one_data: {},label: {}'.format(one_data,label))

# 将数据格式转换为张量
one_data = paddle.to_tensor(one_data,dtype="float32")
predict = model(one_data)

# 对推理结果进行后处理
predict = predict * (max_values[-1] - min_values[-1]) + min_values[-1]
# 对label数据进行后处理
label = label * (max_values[-1] - min_values[-1]) + min_values[-1]

print("Inference result is {},the corresponding label is {}".format(predict.numpy(),label))