
from torch import nn
from torch.nn import functional as F
class MLP(nn.Module):
    # 用模型参数声明层。这里声明两个全连接的层
    def __init__(self):
        # 调用MLP的父类Module的构造函数来执行必要的初始化
        # 在类实例化时也可以指定其他函数参数，例如模型参数params
        super().__init__()
        self.hidden=nn.Linear(in_features=20,out_features=256)#隐藏层
        self.out = nn.Linear(in_features=256, out_features=10)#输出层

    # 定义模型的前向传播，即如何根据输入X返回所需的模型输出
    def forward(self, X):
        hidden = self.hidden(X)
        relu = F.relu(hidden) # 使用ReLU函数
        out = self.out(relu)
        return out
