# 指定文件编码为UTF-8
# coding: utf-8

"""
train_neuralnet.py 功能说明：
1. 实现一个完整的两层神经网络训练流程
2. 使用MNIST手写数字数据集进行训练和测试
3. 包含以下核心功能：
   - 数据加载和预处理
   - 神经网络初始化
   - 批量训练过程
   - 梯度计算和参数更新
   - 训练过程监控和评估

关键点：
- 使用反向传播高效计算梯度
- 采用随机梯度下降(SGD)优化算法
- 定期评估训练集和测试集准确率
- 支持批量训练提高效率
- 记录训练过程中的损失和准确率
"""

# 导入系统模块和操作系统模块
import sys, os
# 添加父目录到系统路径，以便导入父目录中的模块
sys.path.append(os.pardir)

# 导入NumPy数值计算库
import numpy as np
# 从dataset.mnist模块导入MNIST数据加载函数
from dataset.mnist import load_mnist
# 从two_layer_net模块导入TwoLayerNet类
from two_layer_net import TwoLayerNet

# 加载MNIST数据集
# normalize=True: 对图像进行归一化处理(0~1范围)
# one_hot_label=True: 标签采用one-hot编码
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, one_hot_label=True)

# 初始化两层神经网络
# 输入层784个神经元(28x28像素)
# 隐藏层50个神经元
# 输出层10个神经元(对应0-9数字分类)
network = TwoLayerNet(input_size=784, hidden_size=50, output_size=10)

# 设置训练参数
iters_num = 10000  # 总迭代次数
train_size = x_train.shape[0]  # 训练数据大小(60000)
batch_size = 100  # 每个批次的样本数
learning_rate = 0.1  # 学习率

# 初始化列表用于记录训练指标
train_loss_list = []  # 训练损失记录
train_acc_list = []  # 训练准确率记录
test_acc_list = []  # 测试准确率记录

# 计算每个epoch包含的迭代次数
iter_per_epoch = max(train_size / batch_size, 1)

# 训练循环
for i in range(iters_num):
    # 随机选择批次数据
    batch_mask = np.random.choice(train_size, batch_size)
    x_batch = x_train[batch_mask]  # 当前批次输入数据
    t_batch = t_train[batch_mask]  # 当前批次标签数据

    # 计算梯度(使用反向传播法)
    grad = network.gradient(x_batch, t_batch)

    # 更新网络参数(W1,b1,W2,b2)
    for key in ('W1', 'b1', 'W2', 'b2'):
        network.params[key] -= learning_rate * grad[key]

    # 计算并记录当前损失
    loss = network.loss(x_batch, t_batch)
    train_loss_list.append(loss)

    # 每个epoch结束时评估模型
    if i % iter_per_epoch == 0:
        # 计算训练集和测试集准确率
        train_acc = network.accuracy(x_train, t_train)
        test_acc = network.accuracy(x_test, t_test)
        # 记录准确率
        train_acc_list.append(train_acc)
        test_acc_list.append(test_acc)
        # 打印当前准确率
        print(train_acc, test_acc)

"""
代码执行流程：
1. 加载并预处理MNIST数据集
2. 初始化神经网络结构和参数
3. 开始训练循环：
   - 随机选择小批量数据
   - 计算梯度(反向传播)
   - 更新网络参数
   - 记录训练损失
   - 定期评估模型性能
4. 输出训练过程中的准确率变化

注意事项：
1. 学习率是重要超参数，影响训练效果
2. 批量大小影响训练速度和模型泛化能力
3. 迭代次数需要根据实际情况调整
4. 准确率评估频率(iter_per_epoch)可根据需求修改
"""
