\section{研究趋势与挑战}
\subsection{研究趋势}
\begin{itemize}
% from hzw
\item 趋势1：个性化和自适应联邦学习的兴起
\\ 随着联邦学习面临的非独立同分布问题越来越突出，许多研究开始关注如何为每个客户端定制个性化模型。
例如，\textit{pFedZO}\cite{chen_gradient_2024}和\textit{pFedAMF}\cite{yao_rethinking_2024}提出的个性化框架通过深度学习和自适应知识融合机制，能够处理具有不同数据分布的设备，从而在保证隐私的同时优化模型性能。
\item 趋势2：隐私保护技术与分布式学习的结合
\\ 随着数据隐私问题日益严峻，越来越多的研究集中于如何在保证隐私的前提下进行高效的分布式学习。
例如，\textit{Cre-DPSIGN}\cite{du_credit-based_2023}通过结合区块链技术和差分隐私机制，在保证隐私的同时提高了系统的鲁棒性，避免了成员推断攻击等隐私泄露风险。
同时，\textit{Blurred Data Sharing Federal Edge Learning}算法\cite{li_federated_2024}提出的模糊数据或伪数据共享策略，进一步提升了模型的准确性和隐私保护能力，尤其适用于移动设备资源受限的场景。
% from: wl
\item 趋势3：追求高效通信与计算。
FHDnn结合深度学习和超维计算，避免传输CNN，仅训练超维组件，以加速训练、降低通信成本和本地计算能耗，提升通信效率和计算效率成为重要趋势。AdaptiveFL通过细粒度宽度模型剪枝机制和基于强化学习的设备选择策略，实现对模型的自适应分配，减少通信浪费，提高计算资源利用效率，也体现了这一趋势。
\item 趋势4：强化安全与鲁棒性。
DeTA采用去中心化和可信聚合的策略，通过将中央聚合器分解为多个去中心化实例，每个实例只拥有模型更新的部分信息，从而打破了数据集中的信息优势，降低了数据泄露的风险。OASIS机制通过对图像数据进行增强处理来抵消攻击,在提高模型安全性的同时，对模型性能的影响较小，能够在保证数据安全的前提下，实现模型的高效训练和推理。
% from: lyh
\item 趋势5：软硬件协同优化的深化
\\未来的研究将更加注重算法与硬件的协同设计，例如结合自适应编程框架与专用硬件加速器，如 \textit{TinyTrain }框架\cite{kwon2024tinytrain}。
\item 趋势6：分布式计算架构的优化
\\随着边缘计算和 AIoT 设备的普及，研究正致力于优化分布式模型的通信效率与鲁棒性，例如 \textit{FHDnn} 联邦学习框架\cite{chan2022FHDDnn}。
\item 趋势7：轻量级模型的广泛应用
\\研究正在探索如何在保证精度的前提下，进一步减少模型的计算和存储开销，以适应资源受限环境，例如 \textit{DictFormer} 轻量级 Transformer\cite{lou2022dictformer}。
\end{itemize}

\subsection{领域挑战}
\begin{itemize}
% from: hzw
\item 挑战1：数据异质性对模型性能的影响
\\ 分布式学习中的数据异质性，特别是在非IID数据环境下，会对模型的训练过程和精度造成负面影响。尽管有些研究（如\textit{FedClust}）提出了通过客户端聚类来缓解数据异质性问题，但如何在大规模异构数据环境下保持模型的准确性和收敛速度仍然是一个开放问题。
如何在保证数据隐私的同时有效解决数据异质性，并设计适应性强的聚合算法，是未来研究的重要方向。
\item 挑战2：通信瓶颈与训练效率
\\ 在大规模分布式系统中，尤其是在移动边缘计算和IoT设备等资源受限的环境中，通信瓶颈仍然是制约联邦学习效率的关键因素。如何优化通信协议、减少通信次数并提高带宽利用率，以应对大量设备的并行训练需求，是当前面临的挑战之一。
例如，\textit{FedCA}提出的客户端自主决策机制，允许设备提前上传其更新，从而减少了通信延迟，但在大规模设备环境下，如何进一步优化这种机制以应对高并发依然需要深入研究。
% from: wl
\item 挑战3：模型性能和效率优化,重点体现在模型收敛性的问题。
\item 挑战4：系统的稳定性，主要体现在系统能否拥有一个容错性较高的机制。
\item 挑战3：数据和模型隐私保护，在FL中数据存在泄露风险，同时容易受到模型反向攻击。
% from: lyh
\item 挑战5：异构硬件环境的统一编程模型。由于移动设备架构的多样性，如何设计通用的编程框架仍然是挑战。
\item 挑战6：分布式训练的通信开销。在资源受限设备间进行高效的模型同步仍需进一步研究。
\item 挑战7：实时性与能效的平衡。在嵌入式和边缘设备上，如何平衡性能和能耗仍然是一个关键问题。
% from: dzy
\item 挑战8：硬件加速支持。神经网络在资源受限设备上的训练/推理需要硬件架构优化实现加速效果，对数据流进行优化是实现加速的关键方向。
\item 挑战9：模型压缩。通过采用剪枝等技术缩小模型体积，降低推理算力开销的同时尽量保持推理效果仍是重要问题。
\end{itemize}
