\subsubsection{ICPP}
\begin{itemize}
    \item \citet{ye_eco-fl_2023}提出的\textit{Eco-FL}框架通过高效的边缘协作流水线训练提升了IoT设备上的联邦学习效率。
\end{itemize}
\begin{itemize}
    \item \textbf{论文标题}：Eco-FL: Adaptive Federated Learning with Efficient Edge Collaborative Pipeline Training\cite{ye_eco-fl_2023}
    \item \textbf{研究问题}：本论文解决的核心问题是如何在物联网设备和边缘计算环境中高效地实施联邦学习。文章主要关注如何在边缘计算资源有限且数据异构的环境下，利用联邦学习高效地训练深度神经网络（DNN）模型。针对此问题，本文提出了一种名为Eco-FL的新框架，通过引入边缘协作流水线训练和自适应客户端分组以提高训练效率并增强全局模型的收敛性。
    \item \textbf{方法与技术}：论文采用了几种创新性的技术来提高联邦学习在边缘计算环境中的应用效率。
    \\ 首先，边缘协作流水线训练（Edge Collaborative Pipeline Training）是一项关键技术，它通过将DNN模型分割成多个层，并将这些层分配到不同的边缘设备上进行流水线并行计算，从而提高计算效率，避免了因单一设备性能瓶颈导致的训练延迟。边缘协作流水线训练能够充分利用邻近设备的空闲计算资源，尤其是在家庭或办公室等小范围环境中，通过边缘设备协作加速本地模型训练，从而显著减少训练时间并提高系统吞吐量。
    \\ 其次，论文提出的自适应客户端分组（Adaptive Client Grouping）技术，在传统的分组策略基础上进行了改进，考虑了设备的响应延迟和数据分布，动态调整客户端的分组，确保每个组内的设备在计算能力和数据特征上具有一致性。
    这一创新方法有效地解决了系统异构性和数据异构性带来的挑战，通过合理分配设备和数据，避免了由设备差异和数据不平衡导致的训练不稳定性。
    \item \textbf{主要贡献}：本论文的主要贡献在于提出了一个新的联邦学习框架——Eco-FL，通过创新的边缘协作流水线训练和自适应客户端分组，成功地解决了联邦学习在边缘设备上面临的性能瓶颈和数据不均问题。与传统的联邦学习方法相比，Eco-FL在训练准确率、训练时间和吞吐量方面均有显著提升。实验结果表明，Eco-FL能够将训练准确率提升多达26.3\%，并将本地训练时间减少高达61.5\%，吞吐量提高了2.6倍。
    \item \textbf{不足与未来方向}：尽管该框架通过边缘协作流水线和自适应分组有效减少了训练时间并提高了吞吐量，但设备间的通信延迟仍然是一个制约因素。在实际部署中，边缘设备之间的网络带宽可能会受到限制，这会影响数据同步和模型更新的速度。
    \\ 未来可以考虑在下面几个方面进行优化：一是优化通信机制，特别是在设备间带宽有限的情况下，探索更加高效的数据传输和模型同步方法；二是引入更多动态适应性，通过更细粒度的资源感知和实时调度进一步提升系统的灵活性和智能化，尤其是在设备和数据分布高度动态的环境。
\end{itemize}
