一、问题背景随着人工智能技术的发展神经网络已经成为机器学习领域最核心的方法之一。其中多层感知机MLPMulti-Layer Perceptron作为最基础、最经典的前馈神经网络结构被广泛应用于图像分类数据预测金融分析医学诊断工业检测智能推荐等领域MLP本质上是通过多层神经元之间的连接对输入数据进行非线性映射从而实现复杂函数拟合能力。虽然目前主流深度学习框架如TensorFlow、PyTorch能够自动完成神经网络训练但如果仅依赖框架调用往往难以真正理解神经网络内部的数学机制。因此本实验采用 Excel 手动实现MLP前向传播过程通过逐层展开计算公式深入理解神经元的计算原理权重与偏置的作用激活函数的意义神经网络的非线性映射能力前向传播机制该方法具有较强的教学意义和可视化优势适合神经网络基础学习。二、多层感知机MLP原理2.1 神经元模型MLP的基础单元是人工神经元其结构来源于生物神经元模型。一个神经元的核心计算过程包括1、输入加权求和2、加入偏置项3、激活函数非线性变换数学表达式如下其中xi输入特征wi权重参数b偏置z线性输出随后通过激活函数得到最终输出af(z)2.2 MLP网络结构本实验构建一个典型三层结构输入层2个节点↓隐藏层2个神经元ReLU↓输出层1个神经元Sigmoid其特点输入层负责接收数据隐藏层负责提取特征输出层完成预测相比单层感知机MLP最大的优势是具有非线性建模能力。三、实验模型设计3.1 输入数据设输入向量为X[x1,x2]实验中x11.0x22.03.2 隐藏层参数隐藏层包含两个神经元。权重矩阵偏置b1​0.1,b2​−0.23.3 输出层参数输出层权重v1​1.0,v2​−1.5输出偏置bout​0.2四、前向传播计算过程前向传播Forward Propagation是指输入数据从输入层开始经过隐藏层逐层计算最终得到预测结果的过程。五、隐藏层计算5.1 第一个隐藏神经元线性计算代入数据z11.0×0.52.0×0.30.11.25.2 第二个隐藏神经元代入z21.0×(−0.4)2.0×0.8−0.21.0六、ReLU激活函数6.1 激活函数作用如果神经网络只有线性运算则无论多少层本质上仍是线性模型。因此必须引入非线性激活函数。本实验使用ReLU函数ReLU(x)max(0,x)其特点计算简单收敛速度快缓解梯度消失深度学习中应用最广泛。6.2 激活结果a1max(0,1.2)1.2a2max(0,1.0)1.0七、输出层计算输出层继续进行线性组合代入数据zout 1.2×1.01.0×(−1.5)0.2−0.1八、Sigmoid输出层8.1 Sigmoid函数输出层采用Sigmoid函数特点输出范围为0~1可表示概率常用于二分类问题8.2 最终输出代入计算结果y≈0.475说明模型认为该样本属于正类的概率约为47.5%。九、MLP的优缺点分析9.1 优点1结构简单容易理解与实现。2适用范围广适用于分类、回归等任务。3具有非线性拟合能力能够解决复杂问题。9.2 缺点1参数量较大容易出现过拟合。2训练速度慢层数增加后计算复杂度提高。3无法处理时序信息相比RNN/LSTM对序列建模能力较弱。十、实验总结本文基于Excel实现了一个完整的MLP前向传播过程从神经元原理出发详细分析了权重计算、偏置作用、激活函数、隐藏层特征提取、输出层概率预测相比直接使用深度学习框架Excel实现更加直观有助于理解神经网络底层数学机制。本实验不仅完成了MLP计算过程展示也为后续学习BP反向传播、梯度下降、深层神经网络、CNN与LSTM等内容奠定了理论基础。