\section{会议比较与总结}

\subsection{交叉研究点}
% from: hzw
在分析ICPP会议中关于联邦学习的研究时，可以明显看到多个研究交叉点：
\begin{itemize}
    \item 异构设备上的模型优化：如\textit{HASFL}\cite{hao_hasfl_2024}和\textit{ChronusFed}\cite{xia_chronusfed_2024}分别通过模型结构异构性支持和动态部分训练优化了在资源受限环境中的训练效率。
    这些方法通过考虑设备异构性和动态资源适配，提升了整体系统的灵活性和适用性。
    \item 数据异质性的处理：\textit{FedClust}\cite{islam_fedclust_2024}和\textit{FedDRL}\cite{nguyen_feddrl_2022}在处理非独立同分布数据方面提出了创新性解决方案，前者通过客户聚类优化模型精度，后者利用深度强化学习自适应调节客户的影响因子，改善了模型收敛性。
\end{itemize}
通过对 \textit{RTAS}、\textit{ICML}、\textit{ICLR}、\textit{DAC}、\textit{TACO}、\textit{ASPLOS}、\textit{MICRO}、\textit{TCAD}、\textit{NIPS} 的研究成果分析，我们可以发现以下交叉研究点：
\begin{itemize}
% from: wl
\item 硬件支持的分布式计算：\textit{DAC}的硬件设计与\textit{ICDCS}的分布式计算系统的性能结合。DAC 研究的硬件设计可以直接影响分布式计算的效率。例如，针对分布式系统中计算密集型任务，DAC 领域的硬件加速和优化技术能够提升 ICDCS 研究中的分布式计算系统的性能。
\item 高性能计算与分布式存储：\textit{EuroSys}关注存储系统的优化，尤其是在操作系统和文件系统层面，\textit{ICDCS}则关注分布式存储系统如何保证一致性、高可用性和低延迟，两者在如何提升分布式系统的性能和可靠性问题上相互支持。
% from: lyh
\item 软硬件协同优化：\textit{RTAS}关注嵌入式系统中的实时约束，\textit{DAC}提供了高效的硬件架构优化方案，二者在如何设计兼顾软硬件的高效计算框架方面存在交叉。
\item 高效模型训练：\textit{ICML} 和 \textit{ICLR} 共同致力于优化深度学习模型的训练效率，\textit{ICML} 关注算法的创新，\textit{ICLR} 则从表示学习的角度出发，二者在提升模型性能与能效方面具有共通之处。
\item 分布式学习:\textit{ICLR}和 \textit{DAC}在联邦学习、分布式计算架构方面提出了一系列优化策略，以应对资源受限环境下的通信开销和计算挑战。
% from: dzy
\item 硬件数据流优化及推理加速：\textit{TACO}、\textit{ASPLOS}、\textit{MICRO} 关注硬件数据流优化及模型剪枝和压缩，其硬件架构与 TCAD 所关注的如何采用优化技术加速模型推理问题相契合。
\item 推理模型在资源受限场景下的部署：\textit{NIPS} 关注如何将模型部署到资源受限的设备上，与 \textit{TCAD} 所关注的模型剪枝、模型压缩技术契合。
\end{itemize}

\subsection{差异总结}
% from: hzw
ICPP会议在研究方向上展现出多样化的特点，但总体可归结为以下几个侧重点：
\begin{itemize}
    \item 侧重异构环境：\textit{HASFL}\cite{hao_hasfl_2024}和\textit{Eco-FL}\cite{ye_eco-fl_2023}等研究重点是如何在异构计算环境下优化联邦学习的效率。这些研究通常关注设备的异构性和资源分配策略，以提高训练效率和模型性能。
    \item 个性化与自适应联邦学习：如\textit{pFedZO}\cite{chen_gradient_2024}和\textit{pFedAMF}\cite{yao_rethinking_2024}，这些研究致力于在联邦学习中实现个性化模型优化，通过自适应策略和个性化模型融合，提高在异构数据环境中的模型表现。
\end{itemize}
尽管这些会议存在交叉研究点，但各自研究重点有所不同：
\begin{itemize}
% from: wl
\item \textit{DAC}DAC注重硬件设计，并且聚焦于电路等布局优化上。
\item \textit{ICDCS}更侧重于软件和系统层，包括如何在多个计算节点上运行算法、管理资源和保障系统的可靠性与可扩展性。
\item \textit{EuroSys}强调操作系统和架构优化，如操作系统内核、文件系统、并行计算、虚拟化等。
% from lyh
\item \textit{RTAS}专注于实时与嵌入式技术及应用，强调在资源受限环境下的神经网络训练推理与实时系统的结合,例如 \textit{TinyBFT} 研究\cite{Harald2024TinyBFT}。
\item \textit{ICML}聚焦于机器学习算法的创新与发展，着重研究适用于此类设备的新型神经网络训练算法,例如 \textit{POET} 训练系统\cite{pmlr-v162-patil22b}。
\item \textit{ICLR}关注学习表示的理论和实践，探索更高效的神经网络架构和表示学习方法，以降低模型复杂度,例如 \textit{MobileViT} 轻量级视觉 Transformer\cite{mehta2022mobilevit}。
\item \textit{DAC}围绕设计自动化展开研究，侧重于从硬件设计和系统层面进行优化，提高移动设备在运行神经网络任务时的整体性能和能效比,例如 \textit{SPARK}混合加速架构\cite{li2024Spark}。
% from: dzy
\item \textit{TACO}、\textit{ASPLOS}、textit{MICRO} 偏向于硬件数据流优化，例如 \citet{zhao2024sal}。
\item  \textit{TCAD} 偏向于在软件层面对模型进行压缩和剪枝，使其能够运行于资源受限的设备上。例如 \citet{wu2023fedcomp}。
\item \textit{NIPS} 偏向于对网络的架构进行改进，使模型资源开销的上界降低，例如 \citet{kong2023edgecompress}。
\end{itemize}