\chapter{双通道剩余寿命预测模块}

% 本章主要介绍如何根据退化轨迹分解得到的日常损耗项和事件扰动项进行剩余寿命预测，即详细介绍双通道特征学习、特征融合和剩余寿命预测部分的设计与实现。
% 首先，在引言部分会介绍本研究设计双通道特征学习模块的动机，以及两个通道的基本设计思路。
% 然后，分别通过两个小节对两个通道的具体实现细节进行详细介绍。对于日常损耗项特征学习通道，首先会对模型结构进行介绍，然后会结合模型结构分析该模型的优越性。对于事件扰动项特征学习通道，首先会介绍本研究提出的基于 GGS 算法的自顶向下的退化事件提取算法的设计思路和详细计算流程，接下来会介绍退化事件扩展、补充位置编码信息等退化事件预处理操作。
% 最后，对本章内容进行小结。

\section{引言}

在工业设备的退化过程建模与剩余寿命预测等关键的 PHM 任务中，准确挖掘退化轨迹中蕴含的退化特征、模式及演化规律，对于构建具有高预测性能与良好泛化能力的模型至关重要。
在实际的生产环境中，工业设备的性能退化并非由单一机制驱动，而是多种因素长期共同作用的结果。这些影响因素在类型、作用机制及表现形式上表现出巨大的差异，从而导致退化轨迹呈现出显著的复杂性和非平稳性，这给特征学习任务带来了极大的挑战。为了有效控制这种复杂性并提升特征建模效果，本文提出了对退化轨迹按照不同的性能影响因素进行水平分解的解决思路，通过“分治”和“解耦”来降低特征学习的难度。

具体而言，本文在对多个典型工业数据集进行深入分析与归纳总结的基础上，将设备性能退化的主要影响因素划分为两大类：日常损耗项和事件扰动项。
其中，日常损耗项主要由长期运行过程中积累的机械磨损、材料疲劳和环境腐蚀等渐进性因素驱动，通常表现为平稳的、容易预测的退化趋势；
而事件扰动项则源于突发性故障、极端负载或异常操作等非正常工况，常表现出突变、剧烈振荡或其他非平稳特征，具有更高的建模难度。

通过上一个章节所介绍的基于退化成因解耦的退化轨迹分解模块的处理，我们已经完成了退化轨迹的水平分解，将退化轨迹按照不同的性能影响因素分解成了日常损耗项和事件扰动项两个分量，将不同因素导致的性能变化显式区分开来。
这两类因素在时间尺度、变化模式及其对设备性能的影响方式等方面均存在显著差异，若采用统一的建模方式对这两类因素的退化轨迹进行建模，可能难以有效捕捉其各自的变化规律，从而导致关键信息的丢失。
因此，有必要构建针对不同退化影响因素的特征学习机制，以充分挖掘各类信息，提高退化过程建模的准确性和鲁棒性。

基于上述考虑，本研究设计了一个双通道剩余寿命预测模型，该模型由三个子模块构成：
首先，通过双通道特征学习子模块，分别针对日常损耗项与事件扰动项进行独立的深度特征学习，以充分挖掘它们所蕴含的退化信息；
然后，通过特征融合子模块将日常损耗项和事件扰动项的特征学习结果进行有效结合；
最后，通过回归预测子模块根据融合后得到的综合特征表示向量得到最终的剩余寿命预测结果。

% 其中，双通道特征学习子模块的主要任务是以“分而治之”的方式分别针对两类具有不同特点的性能退化因素进行特征学习，因此本研究设计了两个独立的并行特征学习通道，它们在设计与建模过程中各有侧重点：

% \begin{itemize}
%     \item \textbf{日常损耗项特征学习通道}：
%     日常损耗项主要反映设备在正常运行过程中因材料磨损、疲劳老化等长期累积效应所导致的性能退化，通常表现为平稳、容易预测的趋势，具有较强的时间连续性与长期相关性。因此，该通道旨在建模设备健康状态的长期演化过程。为有效刻画日常损耗的积累模式，该通道采用具备时序记忆能力的深度网络结构对退化轨迹中的趋势性特征进行提取，使模型能够持续追踪并刻画退化程度随时间的演变，从而实现对设备老化进程的准确建模。

%     \item \textbf{事件扰动项特征学习通道}：相较而言，事件扰动项往往是由于外部退化事件引起的非平稳剧烈波动，因此该通道的建模重点在于准确识别退化事件的发生时刻与类别，并实现退化事件级别的特征学习。
%     该通道需要重点关注退化轨迹的变化模式，通过识别不同的退化模式来实现对退化事件的提取。在完成退化事件提取之后，还需要进一步分析不同的退化事件对设备性能退化的影响程度，为精细化的剩余寿命预测提供支持。
% \end{itemize}

% 在接下来的叙述中：
在本章节中会对这三个子模块的具体实现细节展开详细介绍。
其中：由于双通道特征学习子模块涵盖的内容比较多，因此本章将分成“日常损耗项特征学习通道”和“事件扰动项特征学习通道”两个小节分别展开介绍；对于特征融合子模块和回归预测子模块则分别用一个小节进行介绍。

\section{日常损耗项特征学习通道}
日常损耗项主要刻画设备在正常运行条件下，由于材料磨损、疲劳老化等物理机制长期作用所引起的渐进式性能劣化过程。该类退化机制通常具有较强的平稳性和连续性，其在时间序列上表现为容易预测、缓慢演化的趋势性变化。因此，在对日常损耗项进行建模时，需重点关注其时间演化规律的挖掘与长期依赖关系的建构，以准确模拟设备在正常运行条件下的基准退化路径。

基于上述分析，本文为日常损耗项设计了一个以时序建模能力为核心的轻量化特征学习通道，旨在捕捉日常损耗积累过程中形成的变化趋势。为此，我们选用长短时记忆网络（Long Short-Term Memory，LSTM）作为该通道的主干建模结构。LSTM 属于典型的递归神经网络架构，通过引入遗忘门、输入门与输出门的门控机制，克服了传统 RNN 在处理长时间序列时面临的梯度消失问题，使其能够有效保留长期历史信息，从而很好地建模时间序列中存在的长期依赖关系。这一特性使得 LSTM 尤其适合建模设备运行过程中日常损耗所呈现的“慢变量”特征。

如图 \ref{fig:基于LSTM的日常损耗项特征学习通道模型结构示意图} 所示为基于 LSTM 的日常损耗项特征学习通道的结构示意图，该通道首先接收前文所提到的基于退化成因解耦的退化轨迹分解模块中学习得到的日常损耗项作为输入。随后，该序列被输入至多层堆叠的 LSTM 网络中，通过逐时刻地状态转移与记忆单元的更新，逐步捕捉设备的日常损耗项中隐含的退化规律。
最后，将 LSTM 网络的输出向量 $\mathbf{h} = (h_1, ..., h_T) \in \mathbb{R}^T $ 通过一个线性映射层转换为长度为 $L_{daily}$ 的特征向量 $daily$，作为日常损耗项特征学习通道的输出结果。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=1.0\linewidth]{fig/基于LSTM的日常损耗项特征学习通道模型结构示意图.png}
    \caption{基于 LSTM 的日常损耗项特征学习通道结构示意图}
    \label{fig:基于LSTM的日常损耗项特征学习通道模型结构示意图}
\end{figure}

LSTM 网络通过一系列门控机制对输入的信息进行有选择地记忆和遗忘，从而实现对长期依赖关系的有效建模。如图 \ref{fig:基于LSTM的日常损耗项特征学习通道计算流程示意图} 所示为门控机制的迭代更新过程，设定时间步 \( t \) 时的日常损耗项输入为 \( w_t \)，前一时刻的隐状态为 \( h_{t-1} \)，记忆单元状态为 \( c_{t-1} \)，则 LSTM 的核心更新机制可形式化表达如下：

\begin{enumerate}
    \item {
    \textbf{遗忘门（Forget Gate）}：
    \begin{equation}
        f_t = \sigma(W_f w_t + U_f h_{t-1} + b_f)
    \end{equation}
    
    遗忘门控制当前单元对过去信息的保留程度，\( f_t \in (0, 1)^d \) 的每个维度表示是否遗忘对应记忆单元的信息，\( \sigma \) 为 sigmoid 激活函数，\( W_f, U_f \) 为权重矩阵，\( b_f \) 为偏置项。
    }
    \item {
    \textbf{输入门（Input Gate）与候选记忆状态更新}

    \begin{equation}
        i_t = \sigma(W_i w_t + U_i h_{t-1} + b_i)
    \end{equation}
    
    \begin{equation}
        \tilde{c}_t = \tanh(W_c w_t + U_c h_{t-1} + b_c)
    \end{equation}
    
    其中，\( i_t \) 控制当前时刻输入对记忆单元的写入程度，\( \tilde{c}_t \) 为当前的候选记忆状态。
    }

    \item {
    \textbf{更新记忆单元状态（Cell State）}

    \begin{equation}
        c_t = f_t \odot c_{t-1} + i_t \odot \tilde{c}_t
    \end{equation}
    
    符号 \( \odot \) 表示逐元素乘法。该公式整合了保留的历史记忆与当前新的输入信息。
    }

    \item{
    \textbf{输出门（Output Gate）与隐状态更新}

    \begin{equation}
        o_t = \sigma(W_o w_t + U_o h_{t-1} + b_o)
    \end{equation}
    
    \begin{equation}
        h_t = o_t \odot \tanh(c_t)
    \end{equation}
    
    最终得到的隐状态 \( h_t \) 表示模型在当前时间步对输入的日常损耗项时间序列的综合理解，将作为当前时间点的特征表示传递至下一个时间步。
    }
\end{enumerate}

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.6\linewidth]{fig/基于LSTM的日常损耗项特征学习通道计算流程示意图.png}
    \caption{LSTM 门控机制迭代更新计算流程}
    \label{fig:基于LSTM的日常损耗项特征学习通道计算流程示意图}
\end{figure}

至此，我们已经得到了 LSTM 网络的输出向量 $\mathbf{h} = (h_1, ..., h_T) \in \mathbb{R}^T$，该向量在时间维度上与输入的日常损耗项序列保持一致，即其长度等于设备的运行时长 $T$。该输出中蕴含了丰富的时序退化信息，是后续建模的重要基础。然而，由于设备运行时间可能较长，所得到的向量 $\mathbf{h}$ 往往维度较高，这在进行跨通道特征融合或后续剩余寿命预测时会带来较大的计算开销与建模难度。

为了解决这一问题，我们在 LSTM 输出后引入一个线性映射层，将原始输出向量映射至一个长度固定、维度统一的表示空间中，以便后续处理。具体而言，线性映射过程可表示为：

\begin{equation} \mathbf{daily} = \mathrm{Linear}(\mathbf{h}) \end{equation}

其中，$\mathrm{Linear}(\cdot)$ 表示一个包含可学习权重矩阵和偏置项的线性变换操作，用于将原始的时间步数为 $T$ 的向量 $\mathbf{h}$ 映射为长度为 $L_{daily}$ 的日常损耗特征向量。$L_{daily}$ 是预定义的统一长度，用于规范所有样本在该通道下的特征维度。

该线性映射操作不仅有效压缩了日常损耗项的时间维度，降低了模型复杂度和融合难度，还通过可学习参数赋予模型一定的表达能力，能够在压缩过程中对原始语义进行选择性保留与重构。相比于传统的截断或插值方式，线性映射作为一种端到端可训练的特征压缩手段，能够在保持表达一致性的同时，尽可能保留原始退化轨迹中的关键语义信息，从而提升整体建模的精度与泛化能力。

通过上述一系列门控机制和线性映射过程，LSTM 能够实现对日常损耗项特征的动态建模，有效追踪其平稳但缓慢变化的演化轨迹。与传统 RNN 结构相比，LSTM 的这种结构设计在捕捉长期依赖关系、避免梯度消失的同时，还能保持对短期波动的适度敏感性，从而实现对退化趋势的全面建模。
同时，相比于更复杂的深度神经网络（如 Transformer），LSTM 具有更低的模型复杂度，模型训练所需的数据量也更小，在有限的数据规模下依然能够保持稳定的学习效果，从而有效避免过拟合问题。
% 对于工业设备的剩余寿命预测任务而言，在某些特定场景下数据采集的难度和成本很高，训练数据往往有限，而 LSTM 在小样本情况下仍能展现良好的泛化能力，使其成为建模日常损耗项的理想选择。
除此之外，LSTM 的计算效率较高，在有限的计算资源条件下能够高效训练，并在预测阶段提供较快的推理速度。
% 相较于需要庞大数据支撑的复杂神经网络，LSTM 以较低的存储和计算需求实现了良好的预测性能，兼顾了准确性与计算开销。
总的来说，本文所设计的基于 LSTM 结构不仅能够捕捉日常损耗项中的长期时序依赖，还能在有限样本和计算资源的情况下保持模型的鲁棒性，是日常损耗项建模任务中兼顾理论表达力与工程实用性的理想选择。

\section{事件扰动项特征学习通道}

事件扰动项反映了设备运行过程中由于突发干扰因素（如外部冲击、操作失误、极端工况等）导致的性能波动。这类扰动通常表现为非平稳性，具有明显的突变、振荡或异常峰值，其影响可能是短暂的，也可能会对后续退化趋势产生长期影响。由于事件扰动项通常呈现非线性动态特征，具有较为复杂和隐晦的变化模式，因此该通道的建模重点在于准确识别退化事件的发生时刻与类别，并实现退化事件级别的特征学习。
该通道需要重点关注退化轨迹的变化模式，通过识别不同的退化模式来实现对退化事件的提取。在完成退化事件提取之后，还需要进一步分析不同的退化事件对设备性能退化的影响程度，为精细化的剩余寿命预测提供支持。

如图 \ref{fig:5_1} 所示为事件扰动项特征学习通道的结构示意图，在对事件扰动项进行处理时，我们首先进行退化事件的提取，将事件扰动项转化为一个在时间上有着先后顺序的退化事件序列，然后经过一系列的退化时间预处理之后，输入到一个基于注意力机制的多层编码器中，以学习各退化事件的特征表示，之后再与日常损耗项特征学习结果进行融合，进行最终的剩余寿命预测。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.4\linewidth]{fig/事件扰动项学习通道.png}
    \caption{事件扰动项特征学习通道结构示意图}
    \label{fig:5_1}
\end{figure}

\subsection{基于 GGS 的自顶向下的退化事件提取算法}

事件扰动项特征学习通道主要聚焦于建模不同退化事件对设备剩余寿命的影响。为了实现对退化事件级别特征的有效学习，首先需要从原始的事件扰动项中提取出边界明确的退化事件，即将连续的事件扰动项时间序列转化为由多个离散退化事件构成的时序片段序列。在此基础上，进一步构建深度学习模型，以深入挖掘各类退化事件的深层特征及其对设备剩余使用寿命的具体作用机制。

由于事件扰动项本质上是一维时间序列，退化事件的提取可形式化为一个时间序列分段任务。所谓退化事件，实质上对应于时间序列中的一段连续片段，因此在后续描述中，退化事件与时序片段可视为等价。

现有的时间序列分段方法主要可以归纳为三大类：滑动窗口法（Sliding Window）、自顶向下法（Top-Down）以及自底向上法（Bottom-Up）。滑动窗口法通过设定固定长度的滑动窗口，在时间序列上移动以实现分段，具有算法直观、实现简便的优点，但由于依赖固定窗口大小，难以适应不同时间尺度的退化事件，灵活性较差。相较之下，自顶向下法和自底向上法则采用迭代优化的策略，自适应地确定分段结构。其中，自顶向下法从整体时间序列出发，递归地将片段二分，直到各子序列的近似误差低于预设阈值；而自底向上法则从大量微小片段出发，逐步合并相邻子段，直至误差收敛。这两类方法能够有效避免等长分段的限制，但也存在各自的问题：自顶向下法需要在每次划分中遍历所有可能的分割点，计算开销较大；自底向上法则需要多次扫描序列，难以高效处理大规模或实时数据。

近年来，GGS（Greedy Gaussian Segmentation）\cite{10.1007/s11634-018-0335-0}作为一种基于概率建模的时间序列分段方法，展现出了优异的性能。GGS 算法假设多元时间序列在每个片段内部服从高斯分布，且仅在分段边界处发生均值与协方差的突变。基于这一假设，GGS 将时间序列分段问题转化为带正则化的最大似然估计问题，并通过启发式搜索策略，逐步向现有分段结构中新增分割点，同时联合优化已有分割点位置，以最大化整体似然值。得益于每次新增分割点操作可在线性时间内完成，GGS 算法在保证较高分段精度的同时兼具良好的计算效率。此外，由于工业设备监测数据在建模实践中普遍假设为高斯分布，GGS算法的模型假设与实际数据特性天然契合，能够更准确地提取反映设备真实退化模式的退化事件片段，避免了依赖简单相似度指标或局部变化检测进行粗略划分的局限。

然而，GGS 算法也存在一定局限性，主要体现在必须预先指定分段数量，而这一超参数对最终分段结果具有显著影响。考虑到工业设备运行环境的多样性、退化事件发生的随机性，以及设备使用周期的差异，统一设定所有设备经历相同数量退化事件显然不合理，因此 GGS 算法在实际应用中面临较大的参数设定挑战。

为了解决这一问题，本文提出了一种基于 GGS 的自顶向下的退化事件提取算法，融合了传统自顶向下分段方法的结构性优势与 GGS 算法的快速搜索能力。一方面，该方法继承了自顶向下法的递归细化策略，能够自适应确定分段数目，无需事先设定退化事件数量；另一方面，在每次新增分割点时，采用 GGS 的启发式优化策略，以线性时间复杂度快速定位最优切分点，显著降低了传统自顶向下法的计算开销。

总体而言，该方法以“自顶向下的分段框架 + GGS 算法的高效搜索”作为核心策略，递归地从整体时间序列出发，逐步细化分段，直至所有子片段的近似误差低于设定阈值。在每一轮划分中，不再暴力搜索所有可能切分位置，而是依托 GGS 算法的启发式搜索，快速而准确地确定最优切分点，从而在保持高分段质量的同时，显著提升了退化事件提取的计算效率。接下来对该方法的具体实现细节进行详细介绍。

\textbf{（1）基于高斯假设建立正则化似然函数}

退化事件提取任务的输入为事件扰动项 $\textbf{e} = {e_t}_{t=1}^T$，即包含 $T$ 个时间戳的一维时间序列。任务目标是确定一组最优的分割点集合 $b = { b_0, b_1, \ldots, b_K }$，其中 $1 = b_0 < b_1 < \cdots < b_K = T$，以将事件扰动项划分为 $K$ 个退化事件。

为了采用 GGS 算法中的高效分割策略，本方法沿用其基本建模假设，即每个退化事件可视为一段服从高斯分布的时间序列片段。基于该假设，建立正则化似然函数如下。

首先，假设每个时间戳 $e_t$ 服从一维高斯分布：

\begin{equation}
e_t \sim N(\mu _t, \sigma _ t^2)
\end{equation}

并且均值 \(\mu_t\) 和方差 \(\sigma _ t^2\) 仅在分割点 \(b_1,\ldots,b_{K-1}\) 处才发生变化，即：

\begin{equation}
(\mu_t, \sigma_t^2) = \left(\mu^{(i)}, {\sigma^{2}}^{(i)}\right),\quad b_{i - 1} \leq t < b_i,\quad i = 1,\ldots,K
\end{equation}

其中，下标 \(t\) 表示时间戳 \(t\)，上标 \((i)\) 表示第 \(i\) 个退化事件。
由此，每个退化事件均被建模为一段具有固定均值和方差的高斯分布序列片段，记为 ${e_t}{t=b{i-1}}^{b_i-1}$，其均值和方差分别为 $\mu^{(i)}$ 与 $\sigma^{2(i)}$。

根据上述建模，整体事件扰动项的似然函数可表示为：

\begin{equation}\label{eq:似然函数1}
\begin{aligned}
\ell(b,\mu,{\sigma^{2}}) &= 
\sum_{t = 1}^{T}\left(-\frac{1}{2}(e_{t}-\mu_{t})^{T} {(\sigma_{t}}^{2})^{-1} (e_{t}-\mu_{t}) - \frac{1}{2}\log\det{\sigma_{t}}^{2}-\frac{n}{2}\log(2\pi)\right)\\
&=\sum_{i = 1}^{K + 1}\sum_{t = b_{i-1}}^{b_{i}-1}\left(-\frac{1}{2}(e_{t}-\mu^{(i)})^{T}({\sigma^{2}}^{(i)})^{-1}(e_{t}-\mu^{(i)})-\frac{1}{2}\log\det{\sigma^{2}}^{(i)}-\frac{n}{2}\log(2\pi)\right)\\
&=\sum_{i = 1}^{K + 1}\ell^{(i)}\left(b_{i-1},b_{i},\mu^{(i)},{\sigma^{2}}^{(i)}\right)
\end{aligned}
\end{equation}

其中，$\ell^{(i)}$ 表示第 $i$ 个退化事件对整体似然的贡献：

\begin{equation}
\begin{aligned}
\ell^{(i)}\left(b_{i - 1},b_{i},\mu^{(i)},{\sigma^{2}}^{(i)}\right)&=\sum_{t = b_{i - 1}}^{b_{i}-1}\left(-\frac{1}{2}(e_{t}-\mu^{(i)})^{T}({\sigma^{2}}^{(i)})^{-1}(e_{t}-\mu^{(i)})-\frac{1}{2}\log\det{\sigma^{2}}^{(i)}-\frac{n}{2}\log(2\pi)\right)\\
&=-\frac{1}{2}\sum_{t = b_{i - 1}}^{b_{i}-1}(e_{t}-\mu^{(i)})^{T}({\sigma^{2}}^{(i)})^{-1}(e_{t}-\mu^{(i)})\\
&\quad-\frac{b_{i}-b_{i - 1}}{2}\left(\log\det{\sigma^{2}}^{(i)}+n\log(2\pi)\right)
\end{aligned}
\end{equation}

为了提高最大似然估计的稳定性，进一步在似然函数中引入正则化项，得到正则化似然函数：

\begin{equation}\label{eq:似然函数2}
\begin{aligned} \phi(b,\mu,{\sigma^{2}})&=\ell(b,\mu,{\sigma^{2}})-\lambda\sum_{i = 1}^{K + 1}\mathrm{Tr}\left(({\sigma^{2}}^{(i)})^{-1}\right)\\ &=\sum_{i = 1}^{K + 1}\left(\ell^{(i)}\left(b_{i - 1},b_i,\mu^{(i)},{\sigma^{2}}^{(i)}\right)-\lambda\mathrm{Tr}\left(({\sigma^{2}}^{(i)})^{-1}\right)\right) \end{aligned}
\end{equation}

其中，$\lambda$ 是正则化参数，取值范围为 \(0 \leq \lambda < 1\)，用于平衡数据拟合程度与模型复杂度。

在分割点集合 $b$ 固定的条件下，上述正则化最大似然问题存在简单的解析解，即：

\begin{itemize}
    \item 第 \(i\) 个退化事件的最优均值为：
    
    \begin{equation}
        \mu^{(i)}=\frac{1}{b_i - b_{i - 1}}\sum_{t = b_{i - 1}}^{b_i - 1}e_t
    \end{equation}

    \item 第 \(i\) 个退化事件的最优方差为：
 
    \begin{equation}
    {\sigma^{2}}^{(i)}=S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I
    \end{equation}

    其中，$S^{(i)}$ 为经验方差矩阵，定义为：

    \begin{equation}
    S^{(i)}=\frac{1}{b_i - b_{i - 1}}\sum_{t = b_{i - 1}}^{b_i - 1}\left(e_t-\mu^{(i)}\right)\left(e_t-\mu^{(i)}\right)^T
    \end{equation}
\end{itemize}

其中, \(S^{(i)}\) 为第 \(i\) 个退化事件的经验方差。

将最优均值与方差代入公式 \ref{eq:似然函数2}）中，可将正则化似然进一步化简为：

\begin{equation}
\begin{aligned} \phi(b)&=C - \frac{1}{2}\sum_{i = 1}^{K + 1}\\ &\left((b_i - b_{i - 1})\log\det\left(S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I\right)-\lambda\mathrm{Tr}\left(S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I\right)^{-1}\right)\\ &=C+\sum_{i = 1}^{K + 1}\psi(b_{i - 1},b_i) \end{aligned}
\end{equation}

其中， $\psi(b_{i - 1},b_i)$ 为每一个退化事件对总似然的贡献：

\begin{equation}
    \label{eq:psi}
    \begin{aligned} &\psi(b_{i - 1},b_i)=\\ &-\frac{1}{2}\left((b_i - b_{i - 1})\log\det\left(S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I\right)-\lambda\mathrm{Tr}\left(S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I\right)^{-1}\right) \end{aligned}
\end{equation}

\(C = -(\mathrm{Tn}/2)(\log(2\pi)+1)\)是与分割点集合无关的常数。

综上，退化事件提取问题最终归结为如下的纯组合优化问题：

\begin{equation}
    \begin{aligned} 
        &\text{maximize }-\frac{1}{2}\sum_{i = 1}^{K + 1}\left((b_i - b_{i - 1})\log\det\left(S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I\right)\right.\\ &\left.-\lambda\mathrm{Tr}\left(S^{(i)}+\frac{\lambda}{b_i - b_{i - 1}}I\right)^{-1}\right) 
    \end{aligned}
\end{equation}

然而，虽然该问题可通过动态规划算法求解全局最优分割，但其时间复杂度为 $Q(T^2)$，随着时间序列长度 $T$ 的增加，计算开销迅速增长，难以满足实际应用对效率的要求。因此，GGS 算法提出了一种高效的启发式策略，在 $O(T)$ 时间复杂度下获得近似最优解。但 GGS 算法的一大限制在于需预先指定分段数目，这在工业设备运行过程中是不现实的，因为退化事件数量往往具有高度不确定性。

为了解决上述问题，本文提出了一种基于 GGS 算法的自顶向下的退化事件提取算法，将 GGS 嵌入经典的自顶向下分段框架中，实现分段数目的自适应确定。该方法以迭代优化为核心思想，在每轮迭代中，首先基于 GGS 策略向当前分段结构中添加新的候选断点，并联合已有断点进行全局调整以最大化正则化似然。随后，遍历当前所有相邻分段，计算近似误差并与预设阈值进行比较；若所有误差均低于阈值，则终止迭代，否则继续引入新的分段点。通过上述自适应过程，最终获得能够充分表征事件扰动项内部模式的最优分段集合，并为每个分段计算其对应的均值与协方差矩阵。

该方法不仅继承了 GGS 的计算效率优势，还克服了其依赖固定分段数的局限性，使得退化事件提取过程具备更高的灵活性与实用性。下一节将详细介绍该方法的具体计算流程。

\textbf{（2）算法计算流程}

在本研究所提出的退化事件提取方法中，辅助函数 $\mathrm{Split} (\mathbf{e}, b_{start}, b_{end})$ 是整个时间序列自顶向下递归分段框架中的关键模块。其主要目标是在给定候选退化事件片段 ${e_t}{t = b{start}}^{b_{end}}$ 时，确定一个最优划分位置，将该片段进一步分解为两个子事件。Split 函数的设计基于高斯对数似然准则，旨在寻找使得分割后两个子区间在高斯分布假设下的对数似然值之和最大化的划分点，从而实现局部划分效果的最优。

算法 \ref{algo:split} 给出了 Split 函数的具体伪代码。其输入包括完整的事件扰动项时间序列 $\mathbf{e} = {e_1, e_2, \ldots, e_T}$ 以及当前退化事件片段的起止边界 $b_{start}$ 和 $b_{end}$。在函数初始化阶段，需要对潜在的左右子事件分别估计初始均值与方差，即 $(\mu_{left}, \sigma^2_{left})$ 和 $(\mu_{right}, \sigma^2_{right})$。同时，定义辅助变量 $\psi_{max}$ 用以记录当前发现的最大似然值，并初始化为负无穷；另定义最优分割点变量 $t_{max}$，初始赋值为 $-1$。

随后，函数对区间 $(b_{start}, b_{end})$ 内的每一个可能分割点 $t$ 进行遍历。对于每一个候选点，原片段被划分为左子区间 $[b_{start}, t]$ 与右子区间 $[t, b_{end}]$。在每次遍历中，分别重新估计左右子区间的高斯均值与方差，并依据公式 \ref{eq:psi} 计算对应的对数似然值，分别记为 $\psi_{left}$ 与 $\psi_{right}$。将二者相加，得到当前划分下的总对数似然值 $\psi_t = \psi_{left} + \psi_{right}$。若 $\psi_t$ 大于历史记录的最大似然值 $\psi_{max}$，则更新 $\psi_{max} \leftarrow \psi_t$，并将当前分割点 $t$ 记录为新的最优划分点 $t_{max}$。完成遍历后，计算划分前后对数似然值的提升量 $\Delta \psi = \psi_{max} - \psi_{base}$，其中 $\psi_{base}$ 为未分割时原片段的对数似然值。最终，Split 函数返回最优划分点 $t_{max}$ 及对应的似然提升量 $\Delta \psi$。

% 如算法 \ref{algo:split} 所示为 Split 函数的伪代码。
% 该函数的输入包括完整的事件扰动项时间序列 $\mathbf{e} = \{e_1, e_2, ..., e_T\}$、当前退化事件的起止边界 $b_{start}, b_{end}$。
% 在函数执行之初，首先进行参数的初始化，在这一步中需要对分割后得到的两个子退化事件的均值和方差 $(\mu_{left}, \sigma^2_{left})$ 和 $(\mu_{right}, \sigma^2_{right})$ 赋予合理的初始值。
% 随后，定义辅助变量 $\psi_{max}$ 用于记录当前发现的最大似然值，并将其设初始化为负无穷，同时定义记录最优分割点的变量 $t_{max}$，并将其初始化为 -1。
% % 在开始迭代计算之前，还要先对该片段在不进行划分时的对数似然值进行计算，记为 $\psi_{base} = \psi(b_{start}, b_{end})$，用于后续判断划分是否带来了收益。
% 函数随后对区间 $(b_{start}, b_{end})$ 内的每一个可能的分割点 $t$ 进行遍历。对于每一个候选的划分位置 $t$，将原始片段划分为两个子区间，即左子区间 $[b_{start}, t]$ 和右子区间 $[t, b_{end}]$。在每一轮循环中，分别对这两个子区间重新估计其高斯均值与高斯方差，并根据公式 \ref{eq:psi} 计算各自的对数似然值，分别记为 $\psi_{left}$ 与 $\psi_{right}$。然后将这两个子区间的对数似然值相加，得到当前划分下的总似然 $\psi_t = \psi_{left} + \psi_{right}$。如果当前 $\psi_t$ 大于历史记录的最大值 $\psi_{max}$，则说明该划分带来的拟合效果优于先前所有的划分，于是更新 $\psi_{max}$ 为 $\psi_t$，并将当前分割点 $t$ 赋值给新的最优分割点 $t_{max}$。
% 遍历完成后，计算划分前后似然值的提升量 $\Delta \psi = \psi_{max} - \psi_{base}$。
% 最终，函数返回最优划分点 $t_{max}$ 以及该划分所带来的似然提升量 $\Delta \psi$。

\begin{algorithm}
\caption{辅助函数 Split}
\label{algo:split}
\begin{algorithmic}[1]
\Require 整个事件扰动项时间序列 $\mathbf{e} = \{e_1, e_2,...e_T\}$
\Require 当前退化事件片段的边界 ${b_{start}}, {b_{end}}$
% \Require 当前退化事件片段的均值与方差 $\mu, \sigma^2$
\Ensure 最优化分点 $t_{max}$
\State $(\mu_{left}, \sigma^2_{left}) \leftarrow (0, 1)$
\State $(\mu_{right}, \sigma^2_{right}) \leftarrow (0, 1)$
\State $t_{max} \leftarrow -1$
\State $\psi_{max} \leftarrow -\infty$
\For {$t$ \text{from} $b_{start}+1$ \text{to} $b_{end}-1$}
    \State $(\mu_{left}, \sigma^2_{left}) \leftarrow $ 对$\mathbf{e}[b_{start} : t]$ 计算高斯均值和方差
    \State $(\mu_{right}, \sigma^2_{right}) \leftarrow$ 对$\mathbf{e}[t : b_{end}]$ 计算高斯均值和方差
    \State $\psi_{left} \leftarrow$ 计算 $ \psi(b_{start},t)$
    \State $\psi_{right} \leftarrow$ 计算 $ \psi(t, b_{end})$
    \State $\psi_t \leftarrow \psi_{left} + \psi_{right}$
    \If {$\psi_t > \psi_{max}$}
        \State $\psi_{max} \leftarrow \psi_t$
        \State $t_{max} \leftarrow t$
    \EndIf
\EndFor
\State $\Delta\psi \leftarrow \psi_{max} - \psi_{base}$
\Return $(t_{max}, \Delta \psi)$
\end{algorithmic}
\end{algorithm}

在此基础上，本文进一步设计了一种改进的自顶向下分段算法，以实现对事件扰动项中退化事件的高效提取。整体流程如算法 \ref{algo:基于 GGS 算法的自顶向下的退化事件提取算法} 所示。不同于传统 GGS 算法需预设分段数目的做法，该方法通过逐步添加与动态调整分割点，在无需事先设定退化事件数量的前提下，自适应地确定合理的分段结构，从而识别出扰动项中的多个潜在退化事件。

在算法初始阶段，设置退化事件总数 $K=1$，初始化分割点集合为 $b=(b_0, b_K)=(1, T)$，并将循环控制变量 $if_continue$ 置为 $TRUE$，表示允许进行进一步的分割操作。进入主循环后，每一轮迭代的首要任务是调用辅助函数 AddNewBreakPoint（详见算法 \ref{algo:新增一个分割点}），尝试新增一个最优分割点。具体而言，该辅助函数遍历当前所有由已有分割点划定的片段，对于每一片段调用一次 $\mathrm{Split}(\mathbf{e}, b_{i-1}, b_i)$，评估是否存在新的划分能显著提升局部似然值，并在所有候选中选择带来最大似然增益的分割点作为本轮新增点。

为进一步提升整体分段结构的全局最优性，AddNewBreakPoint 函数还对现有的全部分割点进行局部调整。调整策略为：将相邻两个退化事件片段拼接为一个更大的片段，随后调用 $\mathrm{Split}(\mathbf{e}, b'{i-1}, b'{i+1})$ 重新寻找更优划分点。若新划分点不同于原分割点 $b'_i$，则以新位置更新分割点集合。该调整过程在每轮迭代中持续执行，直至局部调整不再带来对数似然提升。

% 为了实现对事件扰动项中退化事件的有效提取，本文在 GGS 算法的基础上设计了一种改进的自顶向下分段算法，其整体流程如算法 \ref{algo:基于 GGS 算法的自顶向下的退化事件提取算法} 所示。该算法不需要预先设定退化事件数目，通过迭代地添加和调整分割点，逐步确定一组能够合理划分退化事件的时间点集合，从而识别出扰动项中的多个潜在退化事件。

% 算法的执行初始阶段设定退化事件总数 $K=1$，分割点集合 $b = (b_0, b_K) = (1, T)$，
% 并置循环控制变量 $if\_continue$ 为 $TRUE$，表示当前仍可以继续分割操作。
% 进入主循环之后，算法每一轮迭代的首要任务是通过调用辅助函数 AddNewBreakPoint（算法 \ref{algo:新增一个分割点}）尝试新增一个最优的分割点。
% 具体而言，该辅助函数首先遍历当前所有分段（即由已有分割点划定的每个区间），对于每一段调用一次 $\mathrm{split}(\mathbf{e}, b_{i-1}, b_i, \mu^{(i)}, {\sigma^2}^{(i)})$，评估是否存在一个新的分割点能够显著提升局部似然值。
% 在所有候选中选出带来最大似然增益的分割点，并将其作为本轮新加入的分割点。

% 随后，为提升整体分段的全局最优性，AddNewBreakPoint 函数还将对已有的所有分割点进行调整。调整的策略是：将相邻的两个退化事件拼接为一个大段，然后调用 $\mathrm{Split}(\textbf{e}, b'_{i-1}, b'_{i+1})$ 寻找更优的划分点。
% 如果该划分点不同于原本的分割点 $b'_i$，则用新划分点更新原分割点位置。该过程通过一个循环不断重复，直到分割点的调整操作不再带来对数似然值的提升为止。最终，AddNewBreakPoint 函数返回更新后的分割点集合。

\begin{algorithm}
\caption{辅助函数 AddNewBreakPoint}
\label{algo:新增一个分割点}
\begin{algorithmic}[1]
\Require 整个事件扰动项时间序列 $\mathbf{e} = \{e_1, e_2,...e_T\}$
\Require 当前分割点集合 $b = (b_0, b_1, b_2, ...b_K)$
\Require 当前退化事件总数 $K$
\Ensure 更新后的分割点集合 $b'$
\State $b\_new \leftarrow None$
\State $\Delta\psi_{max} \leftarrow -\infty$
\For {$i$ from $1$ to $K$}
    % \State $(\mu_i, \sigma^2_i) \leftarrow$ 对 $\mathbf{e}[b_{i-1}, b_i]$ 计算高斯均值和方差
    \State $ (t_i, \Delta \psi_i) = \mathrm{split}(\mathbf{e}, b_{i-1}, b_i)$
    \If {$\Delta\psi > \Delta\psi_{max}$}
        \State $b\_new \leftarrow t_i$
        \State $\Delta\psi_{max} \leftarrow \Delta \psi_i$
    \EndIf
\EndFor
\State 将 $b_{new}$ 插入分割点集合 $b$ 中合适的位置，形成新的分割点集合 $b'$
\State $if\_continue = TRUE$
\While{$if\_continue$}
    \State $if\_continue \leftarrow FALSE$
    \For{$i$ from $1$ to $K-1$}
        \State $(t_i, \Delta \psi_i) = \mathrm{Split}(\textbf{e}, b'_{i-1}, b'_{i+1})$
        \If{$t_i \neq b_i$}
            \State $b_i \leftarrow t_i$
            \State $if\_continue \leftarrow TRUE$
            \State break
        \EndIf
    \EndFor
\EndWhile
\end{algorithmic}
\end{algorithm}

回到主流程，当新增分割点及调整完成后，算法继续对当前所有分段的连接区域进行误差评估。对于每一对相邻片段 $\mathbf{e}[b_i:b_{i+1}]$ 和 $\mathbf{e}[b_{i+1}:b_{i+2}]$，计算其连接处的拟合误差，误差度量可基于局部拟合残差或方差指标，旨在评估当前分段是否能够充分逼近原始信号的趋势特性。若所有连接处误差均低于预设的误差阈值 $max_error$，则认为当前分段结构已达到足够的拟合精度，算法终止迭代；反之，若存在误差超限的情况，则继续下一轮迭代。

% 回到算法 \ref{algo:基于 GGS 算法的自顶向下的退化事件提取算法} 的主流程，在完成本轮的分割点添加与调整之后，算法将从前向后扫描当前所有退化事件的分段，
% 对每一对相邻退化事件 $\mathbf{e}[b_i:b_{i+1}]$ 和 $\mathbf{e}[b_{i+1}:b_{i+2}]$ 之间的连接区域进行误差评估。误差度量基于退化信号的拟合残差或方差，衡量当前分段是否已经足够拟合原始数据趋势。如果所有相邻退化事件之间的误差均低于预先设定的误差阈值 $max_error$，则说明当前的分段已具有较好的近似效果，算法终止迭代过程；否则，仍存在可提升的空间，$if\_continue$ 变量被设置为 $TRUE$，主循环进入下一轮迭代。

\begin{algorithm}
\caption{基于 GGS 算法的自顶向下的退化事件提取算法}
\label{algo:基于 GGS 算法的自顶向下的退化事件提取算法}
\begin{algorithmic}[1]
\Require 整个事件扰动项时间序列 $\mathbf{e} = \{e_1, e_2,...e_T\}$
\Require 误差阈值 $max_error$
\Ensure 最佳分割点集 $b = (b_0, ...,b_K)$
\State $b \leftarrow (1, T)$
\State $K = 1$
\State $if\_continue = TRUE$
\While{$if\_continue$}
    
    \State $b_{new} \leftarrow \mathrm{AddNewBreakPoint}(\mathbf{e}, b, K)$
    \State $b \leftarrow b_{new}$
    \State $K \leftarrow K + 1$
    \State $if\_continue = FALSE$
    \For{$i$ from $0$ to $K - 2$}
        \State $segment_{left} = \mathbf{e}[b_i:b_{i+1}]$
        \State $segment_{right} = \mathbf{e}[b_{i+1}:b_{i+2}]$
        \State $error \leftarrow$ 计算 $segment_{left}$ 和 $segment_{right}$ 的近似误差
        \If{$error$ > $max\_error$}
        $if\_continue = TRUE$\;
        \State break
        \EndIf
    \EndFor
\EndWhile
\Return $b$
\end{algorithmic}
\end{algorithm}

最终，当误差判据满足终止条件时，算法返回当前获得的最优分割点集合 $b = (b_0, \ldots, b_K)$。基于这些分割点，即可完成对扰动项中退化事件的有效提取，为后续的寿命预测框架提供结构化的事件级输入。本方法在保持 GGS 启发式高效性的同时，引入了可变长度事件建模机制，显著增强了对复杂退化模式的适应能力。

\subsection{退化事件预处理}

经过前面的退化事件提取算法的处理，我们已经将事件扰动项转换成一个由退化事件组成的序列，这些退化事件具有严格的边界，彼此之间不重合，事件扰动项中的每一个事件戳都唯一地归属于一个确定的退化事件。
除此之外，继承了时间扰动项时间序列的特性，不仅每一个退化事件内部的不同时间戳之间具有时间上的先后顺序，不同的退化事件之间也具有这样的时序依赖关系。

因此，在建模这些退化事件时，我们需要充分考虑它们的时间依赖关系以及全局关联性，以便更准确地捕捉其中蕴含的退化信息。为此，我们设计了一个基于自注意力机制的多层编码器模型来学习每个退化事件的特征表示。自注意力机制能够在整个退化事件序列的范围内动态计算各个事件之间的依赖关系，从而在建模时兼顾短期局部影响和长期全局影响。

然而，在正式引入基于自注意力机制的多层编码器之前，为了弥补退化事件提取过程中可能引入的信息损失，并进一步丰富每个退化事件的输入信息，我们首先对退化事件进行了预处理操作。如图 \ref{fig:退化事件预处理} 所示，退化事件预处理子模块由三个步骤组成，分别为扩展退化事件、线性映射以及位置编码的添加。下面将分别对这三个步骤的具体实现细节进行详细介绍。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.8\linewidth]{fig/数据预处理.png}
    \caption{退化事件预处理子模块结构示意图}
    \label{fig:退化事件预处理}
\end{figure}

\textbf{（1）退化事件扩展}

为了弥补分段过程可能带来的信息割裂，本研究引入了退化事件扩展机制。
一方面，在经过退化事件提取算法得到的退化事件序列中，各个退化事件之间的边界是不重叠的，这种边界明确划分有利于建模事件自身结构，但也会割裂连续时间点之间的依赖关系。
另一方面，本研究用于学习退化事件级别的特征时会使用一个基于自注意力机制的模型，这类模型模型更专注于各个退化事件内部的时间动态变化，而分段边界两侧的时间依赖性往往被忽视，这一现象可能削弱模型对退化过程全局结构的理解与建模。

为了解决这一问题，本研究借鉴了重叠滑动窗口（Overlapping Sliding Window）的思想，通过在每个退化事件中适当引入相邻退化事件的信息，实现退化事件之间的柔性衔接与过渡信息的保留。

如算法 \ref{alg:event_extension} 所示为退化事件扩展算法的伪代码。
该算法的输入包括以下三项：由退化事件分段算法获得的退化时间分割点集合 \(\{b_0, b_1, \ldots, b_K\}\)，完整的时间扰动项时间序列 \(\{e_t\}_{t=1}^{T}\)，以及一个控制扩展程度的拼接比例参数 \(\alpha \in [0,1]\)，通过参数 $\alpha$ 可以控制相邻退化事件的信息在退化事件扩展过程中的参与程度，确保该退化事件本身的退化信息的主导地位不被削弱。
该算法的输出则是经过扩展后的退化事件序列集合 \(\{\mathbf{event}_i'\}_{i=1}^{K}\)。

算法主体通过一个循环依次处理每一个退化事件 \(i\)（从第 1 个到第 \(K\) 个）。在循环开始时，首先计算当前事件的长度 \(L_i = b_i - b_{i-1} + 1\)，然后根据给定比例 \(\alpha\) 计算用于扩展的片段长度 \(l_i = \lfloor \alpha \cdot L_i \rfloor\)。
随后进入第一段条件判断：如果当前事件不是第一个事件（即 \(i > 1\)），则说明可以从前一个事件中提取数据用于拼接。在此情况下，先计算前一事件的长度 \(L_{i-1} = b_{i-1} - b_{i-2} + 1\)，再根据同样的比例计算其扩展长度 \(l_{i-1} = \lfloor \alpha \cdot L_{i-1} \rfloor\)。根据这个扩展长度，从第 \(i-1\) 个退化事件中提取最后 \(l_{i-1}\) 个时间点构成前缀片段 \(\mathbf{pre}_i\)。若当前事件是第一个事件，则无可拼接的前缀信息，前缀设置为空集合 \(\mathbf{pre}_i = \emptyset\)。
随后进入第二段条件判断：如果当前事件不是最后一个事件（即 \(i < K\)），则可以从第 \(i+1\) 个退化事件中提取用于后缀拼接的数据。此时，计算后续事件长度 \(L_{i+1} = b_{i+1} - b_i\)，并据此得出拼接长度 \(l_{i+1} = \lfloor \alpha \cdot L_{i+1} \rfloor\)。从中提取前 \(l_{i+1}\) 个时间点作为后缀片段 \(\mathbf{post}_i\)。若当前事件为末尾事件，则后缀设置为空集合 \(\mathbf{post}_i = \emptyset\)。
在获得当前事件本体 \(\mathbf{event}_i = \{e_t\}_{t = b_{i-1}}^{b_i}\)、前缀片段 \(\mathbf{pre}_i\) 与后缀片段 \(\mathbf{post}_i\) 后，将三者按照时间顺序拼接，构造得到扩展后的事件序列 \(\mathbf{event}_i' = \mathbf{pre}_i \Vert \mathbf{event}_i \Vert \mathbf{post}_i\)，其中 \(\Vert\) 表示向量拼接操作。

通过上述处理，每一个原始的退化事件都被扩展为包含一定上下文信息的更丰富表示，不仅保留了退化事件内部的完整结构，也引入了相邻退化事件在时间连续性上的补充信息。这一扩展机制有助于后续的特征提取网络模型更全面地理解退化过程，尤其在使用注意力机制建模退化事件级依赖关系时，能够有效缓解分段造成的割裂问题，从而提升剩余寿命预测模型的上下文感知能力和整体性能。

\begin{algorithm}
    \caption{退化事件扩展算法}
    \label{alg:event_extension}
    \begin{algorithmic}[1]
    \Require 退化事件分割点集合 $\{b_0, b_1, \ldots, b_K\}$
    \Require 整个事件扰动项时间序列 $\mathbf{e} = \{e_1, e_2,...e_T\}$
    \Require 拼接比例参数 $\alpha \in [0, 1]$
    \Ensure 扩展后的退化事件序列 $\{\mathbf{event}_i'\}_{i=1}^{K}$
    
    \For{$i = 1$ to $K$}
        \State $L_i \leftarrow b_i - b_{i-1} + 1$
        \State $l_i \leftarrow \lfloor \alpha \cdot L_i \rfloor$
        
        \If{$i > 1$}
            \State $L_{i-1} \leftarrow b_{i-1} - b_{i-2} + 1$
            \State $l_{i-1} \leftarrow \lfloor \alpha \cdot L_{i-1} \rfloor$
            \State $\mathbf{pre}_i \leftarrow \{e_t\}_{t=b_{i-1} - l_{i-1} + 1}^{b_{i-1}}$
        \Else
            \State $\mathbf{pre}_i \leftarrow \emptyset$
        \EndIf
    
        \If{$i < K$}
            \State $L_{i+1} \leftarrow b_{i+1} - b_i$
            \State $l_{i+1} \leftarrow \lfloor \alpha \cdot L_{i+1} \rfloor$
            \State $\mathbf{post}_i \leftarrow \{e_t\}_{t=b_i + 1}^{b_i + l_{i+1}}$
        \Else
            \State $\mathbf{post}_i \leftarrow \emptyset$
        \EndIf
    
        \State $\mathbf{event}_i \leftarrow \{e_t\}_{t = b_{i-1}}^{b_i}$
        \State $\mathbf{event}_i' \leftarrow \mathbf{pre}_i \Vert \mathbf{event}_i \Vert \mathbf{post}_i$
    \EndFor
    \end{algorithmic}
\end{algorithm}
    

\textbf{（2）线性映射}

在完成退化事件的上下文扩展操作之后，尽管每个事件的表示已包含相邻事件的信息，但由于原始退化事件的长度本就存在差异，加之扩展部分的比例依赖于各自事件的长度，最终生成的扩展序列在时间维度上仍不一致。为了统一后续特征提取网络的输入形状，并保证所有退化事件在同一特征空间内进行处理，本研究进一步引入线性映射层（Linear Mapping Layer），将所有扩展后的退化事件表示映射到一个统一长度。

具体而言，设扩展后的第 \(i\) 个退化事件表示为 \(\mathbf{event}_i' \in \mathbb{R}^{l_i'}\)，其中 \(l_i'\) 表示扩展后的长度。通过一个共享的线性变换层（即全连接层），将其变换为固定长度表示 \(\mathbf{event}_i'' \in \mathbb{R}^{L_{event}}\)：

\begin{equation}
\mathbf{event}_i'' = \mathrm{Linear}(\mathbf{event}_i')
\end{equation}

其中，\(\mathrm{Linear}(\cdot)\) 表示线性投影操作，通常由一个包含可学习权重和偏置的仿射变换构成，\(L_{event}\) 为预定义的统一退化事件序列长度。

这一变换不仅实现了退化事件在长度上的标准化处理，确保后续模块可以接收形状一致的输入，而且由于线性层中的参数是可学习的，该操作还具备一定的表征能力，能够对原始输入的语义进行初步映射和压缩，增强模型对退化事件本质特征的捕捉能力。更重要的是，这种映射方式不会强行截断或插值原始序列，而是通过训练获得最优的特征重构方式，从而在提升表达统一性的同时尽可能保留原始语义结构的信息。

\textbf{（3）添加位置编码}

在完成退化事件的上下文扩展与统一长度映射之后，虽然各个退化事件在形状上已经标准化为一致的张量形式，具备输入到后续深度模型中的条件，但由于退化事件之间存在明确的时间顺序，仅凭扩展与映射操作尚不足以捕捉其全局时序结构。为使模型能够显式地感知退化事件在设备全生命周期中的时间先后关系，本研究进一步引入了基于正余弦函数的位置编码机制，以辅助模型在全局范围内建立事件级别的时序依赖。

具体而言，设经过前述扩展与线性映射后得到的第 \(k\) 个退化事件表示为 \(\mathbf{event}_k''\)，所有退化事件都具有统一的长度 \(L_{event}\) 。通过一些简单的变换可以将退化事件序列表示为矩阵的形式：

\begin{equation}
    \mathbf{Event} = \begin{bmatrix}
        \mathbf{event}_0'' \\
        \mathbf{event}_1'' \\
        \vdots \\
        \mathbf{event}_{K-1}''
        \end{bmatrix} \in \mathbb{R}^{K \times L_{event}}
\end{equation}


接下来，首先为退化事件序列构造一个总长为 \(K\) 的位置编码矩阵 \(\mathbf{P} \in \mathbb{R}^{K \times d}\)，该矩阵中的每一行对应于一个退化事件在序列中的时间位置信息，称为该退化时间的位置编码向量 $p_k$，长度为 $d$。
该矩阵的构造方式采用 Transformer 中经典的位置编码方法，利用正余弦函数生成一组在不同维度上具有周期性变化的向量，其具体计算方式如下所示：

\begin{equation}
P(k, 2i) = \sin\left(\frac{k}{10000^{\frac{2i}{d}}}\right), \quad 
P(k, 2i+1) = \cos\left(\frac{k}{10000^{\frac{2i}{d}}}\right), \quad 
i = 0, 1, \ldots, \left\lfloor \frac{d}{2} \right\rfloor - 1
\end{equation}

其中，\(k \in [1, K]\) 表示当前退化事件在整个序列中的索引，\(d\) 为位置编码向量的长度，与退化事件的长度相等，即 $d = L_{event}$。该位置编码方式可有效地保留退化事件在序列中的绝对位置，同时通过频率变化引入了足够的区分性，使得不同事件的位置表示在向量空间中相互独立且具备语义结构。

在获得第 \(k\) 个位置编码向量 \(\mathbf{p}_k \in \mathbb{R}^d\) 后，我们将其添加到对应退化事件 \(\mathbf{event}_k''\) 上，以实现位置信息的融合。具体表达如下：

\begin{equation}
\mathbf{event}_k^{\text{final}} = \mathbf{event}_k'' + \mathbf{p}_k
\end{equation}

最终，融合了时间先后位置编码的退化事件矩阵 \( \mathbf{Event}^{\text{final}} = \{\mathbf{event}_k^{\text{final}}\}_{k=1}^K\) 被输入至多层自注意力编码器中，进一步学习退化事件的深度特征表示，为设备剩余寿命预测任务提供结构化、高表达性的输入表示。

\subsection{多层自注意力编码器}

为了进一步挖掘退化事件之间的时序关联与演化规律，本研究引入了一种结构上类似于 Transformer 编码器的多层自注意力编码器（Multi-layer Self-Attention Encoder），用于对退化事件序列进行深层次特征建模。在该模块中，我们将退化事件片段视为语义 Token，显式建模它们之间的全局依赖关系，并通过多头注意力机制从多个子空间中提取多样化的表示，从而有效捕捉设备性能退化过程中潜在的多尺度结构特征与时序演化动态。

多层自注意力编码器由多个结构相同的编码器层堆叠而成，每个编码器层包含三部分核心结构：多头注意力机制（Multi-Head Self-Attention）、前馈神经网络（Feed-Forward Network, FFN）以及残差连接（Residual Connection）与层归一化（Layer Normalization）。
整个多层自注意力编码器的结构示意如图 \ref{fig:multi-layer-encoder} 所示，各子模块之间通过残差路径连接，并在每次子模块处理后应用层归一化，从而保证了信息流动的稳定性和特征提取的高效性。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.5\textwidth]{fig/多层自注意力编码器结构示意图.png}
    \caption{多层自注意力编码器结构示意图}
    \label{fig:multi-layer-encoder}
\end{figure}

自注意力机制的核心在于通过计算输入序列中不同元素之间的相关性，动态分配注意力权重，使模型能够自适应地聚焦于最关键的信息特征。设经过预处理后的退化事件输入矩阵为 \(\mathbf{Event}^{\text{final}} = \{\mathbf{event}_k^{\text{final}}\}_{k=1}^K \in \mathbb{R}^{K \times L}\)，其中 \(K\) 表示退化事件的数量，\(L\) 表示每个事件的嵌入维度。通过线性映射，可以得到查询（Query）、键（Key）和值（Value）矩阵：

\begin{equation}
    \mathbf{Q} = \mathbf{Event}^{\text{final}} W_Q
\end{equation}

\begin{equation}
    \mathbf{K} = \mathbf{Event}^{\text{final}}W_K
\end{equation}

\begin{equation}
    \mathbf{V} = \mathbf{Event}^{\text{final}}W_V
\end{equation}

其中，\(W_Q\)、\(W_K\)、\(W_V\) 为可学习的参数矩阵。随后，通过缩放点积注意力（Scaled Dot-Product Attention）计算注意力输出：

\begin{equation}
    \mathrm{Attention}(\mathbf{Q}, \mathbf{K}, \mathbf{V}) = \mathrm{softmax}\left( \frac{\mathbf{Q}\mathbf{K}^\top}{\sqrt{d_k}} \right) \mathbf{V}
\end{equation}

其中 \(d_k\) 是键向量的维度。该机制使每个退化事件能够基于全局上下文动态更新其表示，从而有效捕捉序列中长期依赖关系与跨事件结构特征。

为了进一步增强模型的表达能力，编码器中引入了多头注意力机制（Multi-Head Attention），其通过并行构建多个独立的注意力头（head），分别在不同表示子空间中学习退化事件之间的复杂依赖关系。其整体计算表达式为：

\begin{equation}
    \mathrm{MultiHead}(\mathbf{Event}^{\text{final}}) = \mathrm{Concat}(\mathrm{head}_1, \mathrm{head}_2, \ldots, \mathrm{head}_H)W_O
\end{equation}

每个注意力头的计算方式为：

\begin{equation}
    \mathrm{head}_i = \mathrm{Attention}(\mathbf{Event}^{\text{final}} W_Q^{(i)}, \mathbf{Event}^{\text{final}}W_K^{(i)}, \mathbf{Event}^{\text{final}}W_V^{(i)})
\end{equation}

其中，\(H\) 表示注意力头的数量，\(W_O\) 是输出线性变换的权重矩阵。

多头注意力机制的结构示意如图 \ref{fig:multi-head-attention} 所示，通过并行关注不同子空间的信息，有效提升了退化事件表征的丰富性和建模的灵活性。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.5\textwidth]{fig/多头注意力.png}
    \caption{多头注意力机制结构示意图}
    \label{fig:multi-head-attention}
\end{figure}

在完成自注意力交互后，引入前馈神经网络（Feed-Forward Network, FFN），以进一步提升退化事件表示的非线性建模能力。前馈神经网络由两个线性变换层和一个激活函数组成，其计算过程为：

\begin{equation}
    \mathrm{FFN}(\mathbf{x}) = \mathrm{max}(0, \mathbf{x}W_1 + b_1)W_2 + b_2
\end{equation}

其中，\(W_1\)、\(W_2\) 为可学习的权重矩阵，\(b_1\)、\(b_2\) 为偏置项。通过非线性变换，FFN能够增强模型对复杂退化动态变化模式的表达能力。

为进一步提升训练过程中的稳定性并加速模型收敛，每个子模块（即多头注意力模块与前馈网络模块）之后均引入残差连接（Residual Connection）与层归一化（Layer Normalization）。具体而言，设输入为 \(\mathbf{x}\)，则每个编码器层的计算流程为：

\begin{equation}
    \mathbf{x}' = \mathrm{LayerNorm}(\mathbf{x} + \mathrm{MultiHead}(\mathbf{x}))
\end{equation}

\begin{equation}
    \mathbf{x}'' = \mathrm{LayerNorm}(\mathbf{x}' + \mathrm{FFN}(\mathbf{x}'))
\end{equation}

上述结构构成了一个完整的编码器层。通过堆叠 \(M\) 层这样的编码器结构，模型能够在多个抽象层次上递归提取退化事件序列中的深层时序依赖与语义关系，最终获得融合全局上下文信息的高质量退化事件表示：

\begin{equation}
    \mathbf{H}^{\text{e}} = \mathrm{Encoder}^{(M)}(\mathbf{Event}^{\text{final}}) \in \mathbb{R}^{K \times d_{\text{model}}}
\end{equation}

其中，\(\mathbf{H}^{\text{e}}\) 表示经过多层自注意力编码器处理后的退化事件序列特征表示，能够有效刻画单个退化事件的内部动态模式及其与其他事件之间的复杂依赖关系。

通过这种深度编码机制，我们能够充分挖掘退化事件之间潜在的时序演化特性与上下文关联，不仅提升了单一退化事件的表征能力，也为后续与日常损耗通道的特征融合、进一步分析退化成因及预测设备剩余寿命奠定了坚实基础。


\section{基于注意力机制的特征融合子模块}

在完成对日常损耗项与事件扰动项的双通道特征学习后，本文进一步引入特征融合模块，以整合两类退化特征所承载的设备性能退化信息，从而提升剩余寿命预测的准确性与鲁棒性。尽管两个通道分别提取了与设备退化过程密切相关的关键特征，但若不加融合直接输入预测模型，可能导致信息割裂或冗余，影响最终预测效果。因此，合理设计特征融合机制，是实现高质量预测的关键环节。

本研究提出了一种基于注意力机制的特征融合方法，其核心思路是以事件扰动项的特征作为主要输入，同时利用日常损耗项的特征作为注意力信号，引导模型对事件扰动特征进行加权调整，以强化对关键退化行为的建模能力。如图 \ref{fig:特征融合模块模型结构示意图} 所示，给出了该方法的整体计算流程。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.4\linewidth]{fig/特征融合模块.png}
    \caption{特征融合模块模型结构示意图}
    \label{fig:特征融合模块模型结构示意图}
\end{figure}

具体而言，设日常损耗项通道的输出为一维时间序列：

\begin{equation}
    \mathbf{h} \in \mathbb{R}^{L_{\text{daily}}}
\end{equation}

其中 \( L_{\text{daily}} \) 表示日常损耗项输出的特征维度。

设事件扰动项通道的输出为退化事件特征矩阵：

\begin{equation}
    \mathbf{H}^{e} = \begin{bmatrix}
        \mathbf{h}_1^e \\
        \mathbf{h}_2^e \\
        \vdots \\
        \mathbf{h}_K^e
    \end{bmatrix} \in \mathbb{R}^{K \times D}
\end{equation}

其中 \(K\) 为退化事件数量，\(D\) 为单个事件特征向量的维度，通常与模型设定的 \(d_{\text{model}}\) 相同。

为实现信息引导融合，首先将日常损耗项的特征 \(\mathbf{h}\) 经过线性变换映射为查询向量（query）：

\begin{equation}
    \mathbf{q} = \mathbf{W}_q \mathbf{h} + \mathbf{b}_q
\end{equation}

其中，\(\mathbf{W}_q \in \mathbb{R}^{d_q \times L_{\text{daily}}}\)，\(\mathbf{b}_q \in \mathbb{R}^{d_q}\) 为可学习参数，\(d_q\) 表示查询向量的维度。

同时，将事件扰动项中每个退化事件的特征向量 \(\mathbf{h}_i^e\) 映射为对应的键（key）和值（value）向量：

\begin{equation}
    \mathbf{k}_i = \mathbf{W}_k \mathbf{h}_i^e + \mathbf{b}_k, \quad \mathbf{v}_i = \mathbf{W}_v \mathbf{h}_i^e + \mathbf{b}_v
\end{equation}

其中，\(\mathbf{W}_k, \mathbf{W}_v \in \mathbb{R}^{d_q \times D}\)，\(\mathbf{b}_k, \mathbf{b}_v \in \mathbb{R}^{d_q}\) 是线性变换参数。

将所有 \(K\) 个事件的键和值向量堆叠成矩阵形式：

\begin{equation}
    \mathbf{K} = \begin{bmatrix}
        \mathbf{k}_1^\top \\
        \mathbf{k}_2^\top \\
        \vdots \\
        \mathbf{k}_K^\top
    \end{bmatrix} \in \mathbb{R}^{K \times d_q}, \quad
    \mathbf{V} = \begin{bmatrix}
        \mathbf{v}_1^\top \\
        \mathbf{v}_2^\top \\
        \vdots \\
        \mathbf{v}_K^\top
    \end{bmatrix} \in \mathbb{R}^{K \times d_q}
\end{equation}

接下来，按照经典的点积注意力机制流程，进行以下计算步骤：

首先，计算查询向量 \(\mathbf{q}\) 与所有键向量的点积相似度：

\begin{equation}
    \mathbf{s} = \mathbf{q} \mathbf{K}^\top \in \mathbb{R}^{1 \times K}
\end{equation}

随后，对点积结果进行缩放（scale）操作，避免大数值导致梯度过小或 softmax 过于尖锐的问题：

\begin{equation}
    \mathbf{s}_{\text{scaled}} = \frac{\mathbf{s}}{\sqrt{d_q}}
\end{equation}

接着，应用 softmax 函数归一化相似度得分，得到每个退化事件的注意力权重：

\begin{equation}
    \boldsymbol{\alpha} = \mathrm{softmax}(\mathbf{s}_{\text{scaled}}) \in \mathbb{R}^{1 \times K}
\end{equation}

其中：

\begin{equation}
    \alpha_i = \frac{\exp\left( s_i / \sqrt{d_q} \right)}{\sum_{j=1}^K \exp\left( s_j / \sqrt{d_q} \right)}
\end{equation}

最后，利用注意力权重对所有值向量进行加权求和，得到融合后的最终特征表示：

\begin{equation}
    \mathbf{f}_{\text{fused}} = \boldsymbol{\alpha} \mathbf{V} \in \mathbb{R}^{1 \times d_q}
\end{equation}

即：

\begin{equation}
    \mathbf{f}_{\text{fused}} = \sum_{i=1}^K \alpha_i \mathbf{v}_i
\end{equation}

通过上述过程，融合后的综合特征表示 \(\mathbf{f}_{\text{fused}}\) 既包含了事件扰动项中所蕴含的丰富退化事件信息，又借助日常损耗项的变化趋势对其进行了语义强化与动态调节。

该融合策略具有以下显著优势：一方面，保留了事件扰动项对设备寿命波动性影响的高度敏感性；另一方面，利用日常损耗项的平稳信息对特征权重进行调控，有助于抑制噪声干扰对预测结果的负面影响。融合后的特征将作为最终输入，送入后续的回归预测模块，以实现设备剩余寿命的精准估计。

\section{基于全连接网络的回归预测子模块}
在完成特征融合后，得到的特征表示已充分整合日常损耗项与事件扰动项两类退化信息，具备了丰富的时序与结构语义。为了将这些高维融合特征有效映射为具体的剩余寿命（Remaining Useful Life, RUL）预测值，本文设计了一个由三层全连接神经网络（Fully Connected Neural Network, FCNN）组成的回归预测头，以完成最终的回归任务。

如图 \ref{fig:剩余寿命预测模块模型结构示意图} 所示为剩余寿命预测模块的模型结构示意图，将融合后的综合特征表示向量 \( \mathbf{f}_{\text{fused}} \) 首先输入至第一隐藏层进行线性映射与非线性变换，随后依次通过第二隐藏层与输出层，逐步提取深层语义并完成RUL值的预测。模型结构可以形式化地表示为：

\begin{equation}
    \begin{aligned}
    \mathbf{o}_1 &= \sigma(\mathbf{W}_1 \mathbf{f}_{\text{fused}} + \mathbf{b}_1) \\
    \mathbf{o}_2 &= \sigma(\mathbf{W}_2 \mathbf{o}_1 + \mathbf{b}_2) \\
    \hat{y} &= \mathbf{W}_3 \mathbf{o}_2 + \mathbf{b}_3
    \end{aligned}
\end{equation}

其中，\( \mathbf{W}_1, \mathbf{b}_1 \)，\( \mathbf{W}_2, \mathbf{b}_2 \)，\( \mathbf{W}_3, \mathbf{b}_3 \) 分别表示三层网络中的权重与偏置参数；\( \sigma(\cdot) \) 表示激活函数，本文中采用ReLU函数作为非线性映射以增强模型表达能力；\( \hat{y} \) 为模型最终输出的RUL预测值。

\begin{figure}[htbp]
    \centering
    \includegraphics[width=0.8\linewidth]{fig/剩余寿命预测模块.png}
    \caption{剩余寿命预测模块模型结构示意图}
    \label{fig:剩余寿命预测模块模型结构示意图}
\end{figure}

为优化该回归网络的参数，本文使用均方误差（Mean Squared Error, MSE）作为损失函数，其形式定义如下：

\begin{equation}
    \mathcal{L}_{\text{MSE}} = \frac{1}{N} \sum_{i=1}^{N} (y_i - \hat{y}_i)^2
\end{equation}

其中，\( y_i \) 和 \( \hat{y}_i \) 分别表示第 \( i \) 个样本的真实RUL值与模型预测值，\( N \) 为训练样本总数。该损失函数能够有效度量预测误差，并在训练过程中指导模型参数的迭代更新，以最小化预测偏差。

综上所述，本文通过构建一个包含两层隐藏结构的三层全连接回归网络，在融合特征基础上实现了对设备剩余寿命的精确预测。该回归模块在保证模型结构简洁性的同时，进一步提升了特征映射能力，有助于增强模型的非线性表达与推广适应能力。

\section{本章小结}
本章主要围绕双通道剩余寿命预测模型的设计思路与实现细节展开阐述。首先，在双通道特征学习子模块中，系统介绍了如何分别建模设备退化过程中的日常损耗项与事件扰动项，以更精准地捕捉两类因素的异质性特征。针对建模必要性，本章分析了日常损耗项与事件扰动项在退化过程中的不同表现形式与作用机制，阐明了双通道分离建模对于提升预测准确性的关键意义。

在具体实现方面，针对日常损耗项特征学习通道，采用长短时记忆网络（LSTM）提取平稳时间序列中的长期趋势特征，有效建模设备运行过程中的慢速退化模式。针对事件扰动项，则提出基于贪婪高斯分割（GGS）算法的退化事件提取方法，通过自适应时间序列分段，识别出显著扰动节点，并结合注意力机制学习其特征表示，从而精准刻画突发性退化行为对设备性能的影响。双通道特征学习架构通过协同建模平稳退化与突发扰动，为后续的特征融合与寿命预测提供了高质量、互补性强的特征输入。

在特征融合子模块中，提出了一种基于注意力机制的融合策略，以日常损耗项特征引导对事件扰动项特征的动态加权调整，充分发挥两类特征在不同退化阶段的重要作用，显著增强了特征整合的有效性与表征能力。

最后，在回归预测子模块中，设计并实现了一个多层全连接回归网络，通过非线性映射将融合后的综合特征转化为具体的剩余寿命预测值。该设计不仅进一步提升了整体模型的预测性能，也验证了高质量特征融合在设备剩余寿命预测任务中的核心价值。