

\section{DEGA：基于差分进化的改进遗传算法}\label{degaux57faux4e8eux5deeux5206ux8fdbux5316ux7684ux6539ux8fdbux9057ux4f20ux7b97ux6cd5}

\subsection{模型背景}\label{ux6a21ux578bux80ccux666f}

\begin{enumerate}
\def\labelenumi{\arabic{enumi}.}
\item
  DE算法是一种基于变异和重组的全局搜索优化技术，通过对当前种群中的个体进行变异和重组，生成新个体，并通过比较选择达到优化目的
\item
  GA算法是一种基于自然选择和遗传的全局搜索优化技术，通过对种群个体进行遗传变异和选择，生成新个体，并通过比较选择达到优化目的
\end{enumerate}

\subsection{算法详解}\label{ux7b97ux6cd5ux8be6ux89e3}

DEGA基本思路：在GA框架内，用DE的差分变异操作取代或辅助传统变异操作，甚至部分替代交叉操作

\textbf{步骤1：初始化}

\begin{itemize}
\tightlist
\item
  设定种群大小 \(NP\)
\item
  最大迭代次数 \(G_{\text{max}}\)
\item
  GA交叉概率 \(P_c\)
\item
  DE缩放因子 \(F\)
\item
  DE交叉概率 \(CR\)
\item
  在搜索空间内随机生成初始种群
  \(P^0 = \{X_1^0, X_2^0, \ldots, X_{NP}^0\}\)，每个个体 \(X_i\) 是一个
  \(D\) 维向量
\end{itemize}

\textbf{步骤2：主循环（迭代 \(G_{max}\) 次）} 最常见的方式是序列混合

\textbf{GA阶段}：创造多样性，生成中间子代种群 \(Q^g\)

\begin{enumerate}
\def\labelenumi{\arabic{enumi}.}
\tightlist
\item
  \textbf{选择 (Selection)}

  \begin{itemize}
  \tightlist
  \item
    目的：模仿''物竞天择，适者生存''
  \item
    轮盘赌选择 (Roulette Wheel Selection)：

    \begin{itemize}
    \tightlist
    \item
      适应度函数：\(f(X_i^g)\)
    \item
      公式：\(P_{\text{select}}(i) = \frac{f(X_i^g)}{\sum_{j=1}^{NP} f(X_j^g)}\)
      （适用于最大化问题）
    \item
      对于最小化问题：

      \begin{itemize}
      \tightlist
      \item
        \(P_{\text{select}}(i) = \frac{\frac{1}{f(X_i^g) + \varepsilon}}{\sum_{j=1}^{NP} \frac{1}{f(X_j^g) + \varepsilon}}\)
      \item
        或
        \(P_{\text{select}}(i) = \frac{f_{\text{max}} - f(X_i^g)}{\sum_{j=1}^{NP} (f_{\text{max}} - f(X_j^g))}\)
        （\(f_{\text{max}}\) 是当代最差适应度）
      \end{itemize}
    \end{itemize}
  \end{itemize}
\item
  \textbf{交叉 (Crossover)}

  \begin{itemize}
  \tightlist
  \item
    目的：模仿生物遗传中的''杂交''
  \item
    算术交叉 (Arithmetic Crossover)：

    \begin{itemize}
    \tightlist
    \item
      公式：

      \begin{itemize}
      \tightlist
      \item
        \(\text{Child}_1 = \alpha \times \text{Parent}_1 + (1 - \alpha) \times \text{Parent}_2\)
      \item
        \(\text{Child}_2 = (1 - \alpha) \times \text{Parent}_1 + \alpha \times \text{Parent}_2\)
      \end{itemize}
    \item
      \(\alpha\) 是在 \([0, 1]\) 范围内随机生成的数
    \end{itemize}
  \item
    结果：产生中间子代种群 \(Q^g\)
  \end{itemize}
\end{enumerate}

\textbf{DE阶段}：深度挖掘，对GA阶段产生的候选解进行强化和精炼

\begin{enumerate}
\def\labelenumi{\arabic{enumi}.}
\tightlist
\item
  \textbf{差分变异 (Mutation)}

  \begin{itemize}
  \tightlist
  \item
    目的：生成具有导向性的变异向量
  \item
    策略 ``DE/rand/1''：

    \begin{itemize}
    \tightlist
    \item
      公式：\(V_i^{g+1} = X_{r1}^g + F \times (X_{r2}^g - X_{r3}^g)\)
    \item
      含义分解：

      \begin{itemize}
      \tightlist
      \item
        \((X_{r2}^g - X_{r3}^g)\)：差分向量，代表种群中两个随机个体在解空间中的方向和距离
      \item
        \(F \times (X_{r2}^g - X_{r3}^g)\)：缩放后的差分向量
      \item
        \(X_{r1}^g + \ldots\)：基于种群分布信息计算的有方向感的变异
      \end{itemize}
    \end{itemize}
  \end{itemize}
\item
  \textbf{交叉 (Crossover)}

  \begin{itemize}
  \tightlist
  \item
    目的：将变异向量 \(V_i\) 的探索性与目标向量 \(X_i^g\) 的原始性混合
  \item
    二项交叉 (Binomial Crossover)：

    \begin{itemize}
    \tightlist
    \item
      过程：对每个维度 \(j\)，决定试验向量 \(U_i\) 的基因来源
    \item
      条件 \(\text{rand}() < CR\) 或 \(j = j_{\text{rand}}\)：

      \begin{itemize}
      \tightlist
      \item
        \(CR\)：交叉概率，决定来自变异向量 \(V_i\) 的基因比例
      \item
        \(j = j_{\text{rand}}\)：强制措施，确保至少有一个维度来自变异向量
      \end{itemize}
    \end{itemize}
  \end{itemize}
\item
  \textbf{选择 (Selection) - 贪婪选择}

  \begin{itemize}
  \tightlist
  \item
    目的：决定试验向量 \(U_i\) 或目标向量 \(X_i^g\) 进入下一代种群
  \item
    规则（最小化问题）：\(X_i^{g+1} = \begin{cases} U_i^{g+1}, & \text{if } f(U_i^{g+1}) < f(X_i^g) \\ X_i^g, & \text{otherwise} \end{cases}\)
  \item
    含义：一对一的贪婪竞争
  \item
    关键性：

    \begin{itemize}
    \tightlist
    \item
      保证种群单调进化
    \item
      高效利用新找到的好解
    \item
      精英保留，防止优秀解丢失
    \end{itemize}
  \end{itemize}
\end{enumerate}

\subsection{算法适用场景}\label{ux7b97ux6cd5ux9002ux7528ux573aux666f}

DEGA继承了GA和DE的优点，适用于：

\begin{itemize}
\tightlist
\item
  连续变量优化问题
\item
  高维优化问题
\item
  多峰（Multimodal）函数优化
\item
  不可微、非凸、非线性问题
\item
  复杂工程优化问题：

  \begin{itemize}
  \tightlist
  \item
    神经网络超参数调优
  \item
    机器学习模型特征选择
  \item
    工程设计（如翼型设计、结构优化）
  \item
    调度与规划问题（需离散化）
  \item
    经济金融模型校准
  \end{itemize}
\end{itemize}

\subsection{不适用场景}\label{ux4e0dux9002ux7528ux573aux666f}

\begin{itemize}
\tightlist
\item
  凸的、可微的问题：传统梯度下降法、牛顿法等更高效
\item
  要求得到精确数学解析解
\item
  计算资源有极端限制
\item
  最优解性质是离散的且DE的差分操作难以直接应用
\end{itemize}

\subsection{模型优缺点}\label{ux6a21ux578bux4f18ux7f3aux70b9}

\textbf{优点：}

\begin{itemize}
\tightlist
\item
  平衡探索与开发：GA负责全局探索，DE负责局部开发
\item
  收敛速度快：DE的导向性变异算子提供明确搜索方向
\item
  全局搜索能力强：避免纯DE陷入局部最优
\item
  鲁棒性高：对问题依赖小，无需梯度信息
\item
  性能优越：在大量测试和应用中证明优于传统GA或DE
\end{itemize}

\textbf{缺点：}

\begin{itemize}
\tightlist
\item
  参数更多，调参复杂：需调整P\_c、F、CR等多个参数
\item
  计算成本高：每次迭代需要进行两次操作
\item
  算法结构更复杂：实现难度高于标准GA或DE
\item
  ``No Free Lunch''定理：并非所有问题都最优
\item
  主要针对连续优化：离散问题需特殊处理
\end{itemize}

