\section{研究主题分类与分类分析}

\subsection{主题分类}

根据研究内容，将论文按以下主题分类：

\begin{enumerate}
    \item \textbf{并行算法}：优化并行计算的算法设计与实现。
    \item \textbf{编程模型与框架}：并行编程语言、模型与运行时优化。
    \item \textbf{硬件优化与协同设计}：多核、GPU、TPU 等硬件环境下的性能提升。
    \item \textbf{分布式系统}：容错机制、一致性协议与大规模分布式架构。
\end{enumerate}

\subsection{论文总览与分类表}

\newcounter{PaperNumber}
\setcounter{PaperNumber}{0}
\renewcommand\thePaperNumber{\addtocounter{PaperNumber}{1}\arabic{PaperNumber}}

\begin{center}
\sloppy{}
\begin{longtable}{|p{1cm}|p{1.5cm}|p{2cm}|p{5.7cm}|p{2cm}|p{2cm}|}
    \hline
    \textbf{编号} & \textbf{主题} & \textbf{会议/期刊} & \textbf{标题} & \textbf{核心技术} & \textbf{主要贡献} \\ \hline
% ----------- hzw
    \thePaperNumber & 分布式系统 & ICPP & Rethinking Personalized Federated Learning from Knowledge Perspective & 动量更新机制、自适应知识融合矩阵与知识蒸馏  & pFedAMF框架从知识视角解决全局与本地知识遗忘问题  \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & ChronusFed: Reinforcement-Based Adaptive Partial Training for Heterogeneous Federated Learning & 动态轮次调整机制和可定制部分训练框架 & 设计了首个利用强化学习调整本地训练轮次的联邦学习框架 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & FedCA: Efficient Federated Learning with Client Autonomy & 早期传输与重传机制 & 提出了赋予客户端自治能力FedCA机制 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & Federated Edge Learning with Blurred or Pseudo Data Sharing & 模糊数据共享与伪数据共享 & 提出了数据模糊和伪数据共享算法 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering & 基于模型权重的客户聚类技术 & 提出权重驱动的客户端聚类框架FedClust \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & HASFL: Harnessing Heterogeneous Models Across Diverse Devices for Enhanced Federated Learning & 采用循环组训练的分裂式联邦学习 & 提出了一种用户分组算法 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & Gradient Free Personalized Federated Learning & 零阶优化方法 & 提出了首个无梯度的个性化联邦学习方法pFedZO \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & Credit-based Differential Privacy Stochastic Model Aggregation Algorithm for Robust Federated Learning via Blockchain & 无偏差分隐私机制 & 首次结合区块链的联邦学习框架 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & Learning From Your Neighbours: Mobility-Driven Device-Edge-Cloud Federated Learning & 设备内模型聚合及动态设备选择 & 提出并验证了新型设备选择和聚合策略 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & ASFL: Adaptive Semi-asynchronous Federated Learning for Balancing Model Accuracy and Total Latency in Mobile Edge Networks & 深度强化学习动态调整滞后容忍度 & ASFL实现联邦学习中延迟与精度的高效平衡 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & FedClassAvg: Local Representation Learning for Personalized Federated Learning on Heterogeneous Neural Networks & 分类器权重聚合与监督对比损失 & 提出通过分类器权重聚合来解决异构模型问题 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & Spread: Decentralized Model Aggregation for Scalable Federated Learning & 分层架构设计的集群构建算法 & 提出通过分层架构和去中心化聚合技术解决联邦学习中的通信瓶颈问题 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & FedDRL: Deep Reinforcement Learning-based Adaptive Aggregation for Non-IID Data in Federated Learning & 深度强化学习 & 提出了能动态调整客户端影响因子的基于深度强化学习的FedDRL模型 \\ \hline
    \thePaperNumber & 分布式系统 & ICPP & An Online Learning Approach for Client Selection in Federated Edge Learning under Budget Constraint & 在线学习与动态决策 &  FedL框架解决资源优化与约束满足问题 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & ICPP & Eco-FL: Adaptive Federated Learning with Efficient Edge Collaborative Pipeline Training & 边缘协作流水线训练 & 提出了基于边缘协作流水线模型训练的层次化FL系统框架 \\ \hline
% ----------- wl
    \thePaperNumber& 分布式系统 & DAC & FHDnn: Communication Efficient and Robust Federated Learning for AIoT Networks & 卷积神经网络、超维计算  & FHDnn框架能够提高通信效率同时具有高鲁棒性  \\ \hline
    \thePaperNumber& 分布式系统 & DAC & AdaptiveFL: Adaptive Heterogeneous Federated Learning for Resource-Constrained AIoT Systems & 模型剪枝机制、强化学习策略 & AdaptiveFL对于IID和非IID场景都能实现较好推理改进 \\ \hline
    \thePaperNumber& 分布式系统 & DAC & Fake Node-Based Perception Poisoning Attacks against Federated Object Detection Learning in Mobile Computing Networks & 基于假节点的感知中毒攻击策略 & 提出FNPPA，丰富了联邦学习安全攻击领域的理论研究 \\ \hline
    \thePaperNumber& 分布式系统 & ICDCS & Fed-MS: Fault Tolerant Federated Edge Learning with Multiple Byzantine Servers & 多服务器技术、修剪均值模型过滤器 & 解决了在拜占庭PS存在情况下的模型聚合与可靠训练问题 \\ \hline
    \thePaperNumber& 分布式系统 & ICDCS & Toward Free-riding Attack on Cross-Silo Federated Learning Through Evolutionary Game & 进化博弈模型、环境反馈动态框架和非线性控制方法 & 提出基于进化博弈的Fed-EPG激励模型 \\ \hline
    \thePaperNumber& 分布式系统 & ICDCS & FedMark: Large-Capacity and Robust Watermarking in Federated Learning & Shamir秘密共享技术、哈希矩阵计算 & 增强了水印鲁棒性，满足了现实 FL 系统的需求 \\ \hline
    \thePaperNumber& 分布式系统 & ICDCS & OASIS: Offsetting Active Reconstruction Attacks in Federated Learning & 图像增强技术 & 提出OASIS防御机制，有效抵御此类攻击并保持模型性能。 \\ \hline
    \thePaperNumber& 分布式系统 & ICDCS & Mitigation of Gradient Inversion Attacks in Federated Learning with Private Adaptive & 安全聚合算法、自适应优化 & 提出SecAdam算法，有效缓解安全攻击且提升模型性能 \\ \hline
    \thePaperNumber& 分布式系统 & EuroSys & DeTA: Minimizing Data Leaks in Federated Learning via Decentralized and Trustworthy Aggregation & 去中心化数据聚合、机密计算 & 有效降低联邦学习数据泄露风险 \\ \hline
    \thePaperNumber& 分布式系统 & EuroSys & Totoro: A Scalable Federated Learning Engine for the Edge & 分布式哈希表、P2P & 解决边缘网络联邦学习的扩展性和适应性难题 \\ \hline
    \thePaperNumber& 分布式系统 & EuroSys & FLOAT: Federated Learning Optimizations with Automated Tuning & 多目标强化学习 & 解决联邦学习中资源管理和模型性能优化难题 \\ \hline
    \thePaperNumber& 分布式系统 & EuroSys & Dordis: Efficient Federated Learning with Dropout-Resilient Differential Privacy & XNoise噪声强制方案、分布式并行架构 & 有效解决联邦学习中分布式差分隐私机制面临的客户端退出和效率问题 \\ \hline
    \thePaperNumber& 分布式系统 & EuroSys & REFL: Resource-Efficient Federated Learning & 智能参与者选择、陈旧感知聚合 & 有效解决联邦学习中资源浪费和数据多样性低的问题 \\ \hline
    \thePaperNumber& 分布式系统 & SC & SPATL: Salient Parameter Aggregation and Transfer Learning for Heterogeneous Federated Learning & 异质知识转移学习、强化、联邦 & 有效降低联邦学习通信开销、加速模型推理、解决数据异质性问题 \\ \hline
    \thePaperNumber& 分布式系统 & MICRO & HARMONY: Heterogeneity-Aware Hierarchical Management for Federated Learning System & 协调器技术、聚类算法 & 有效平衡联邦学习中模型性能与训练进度 \\ \hline
%------------ lyh
    \thePaperNumber & 分布式系统 & RTAS & TinyBFT: Byzantine Fault-Tolerant Replication for Highly Resource-Constrained Embedded Systems & PBFT协议优化和静态内存分配技术  & 提出了TINYBFT库,用于资源受限设备的BFT状态机复制  \\ \hline
    \thePaperNumber & 编程模型与框架 & ICML & POET: Training Neural Networks on Tiny Devices with Integrated Rematerialization and Paging & 联合搜索重新计算和页面调度策略，图形级编译器优化 & 开发了POET系统,优化了内存受限边缘设备上的深度神经网络训练能耗 \\ \hline
    \thePaperNumber & 编程模型与框架 & ICML & TinyTrain: Resource-Aware Task-Adaptive Sparse Training of DNNs at the Data-Scarce Edge & 离线学习和在线学习框架，稀疏更新策略 & 提出了TinyTrain框架,提升数据稀缺环境下的深度学习模型性能 \\ \hline
    \thePaperNumber & 分布式系统 & ICLR & Using spiking neural networks to assist fine art and philology study: to classify styles of Chinese calligraphy with minimal computing power & 提出基于LeNet的CaStySNN对中国书法风格分类 & SNN在低计算资源下取得更好的分类效果 \\ \hline
    \thePaperNumber & 编程模型与框架 & ICLR & Transfer NAS with Meta-learned Bayesian Surrogates & 基于深度核高斯过程的自动机器学习框架 & 在六个计算机视觉数据集上取得最先进的性能 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & ICLR & Network Augmentation for Tiny Deep Learning & 增加宽度构建大模型，选择子网络辅助监督 & 减少内存占用和训练时间，适用于小型设备 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & ICLR & DictFormer: Tiny Transformer with Shared Dictionary & 轻量级Transformer模型压缩、共享字典和系数表示 & 压缩模型大小并减少计算量，适用于移动设备 \\ \hline
    \thePaperNumber & 编程模型与框架 & ICLR & MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer & 结合CNN和Transformer的轻量级网络结构设计 & 提高移动设备上的视觉识别任务效率 \\ \hline
    \thePaperNumber & 并行算法 & ICLR & DKM: Differentiable k-Means Clustering Layer for Neural Network Compression & 可微分的K-Means聚类算法，注意力机制 & 实现可微分的k-means聚类，优化模型压缩和准确率 \\ \hline
    \thePaperNumber & 分布式系统 & DAC & Deep Reorganization: Retaining Residuals in TinyML & 网络扩张和逐步线性化调整 & 提升微小神经网络在大规模数据集上的学习能力 \\ \hline
    \thePaperNumber & 并行算法 & DAC & MoteNN: Memory Optimization via Fine-grained Scheduling for Deep Neural Networks on Tiny Devices & STML系统，ARM TrustZone保护，内存交换策略 & 保护TinyML模型的知识产权，优化内存利用和降低延迟\\ \hline
    \thePaperNumber & 硬件优化与协同设计 & DAC & SPARK: An Efficient Hybrid Acceleration Architecture with Run-Time Sparsity-Aware Scheduling for TinyML Learning & DERO方法，重新组织残差连接法 & 降低微型设备中的峰值内存使用，保持模型精度\\ \hline
    \thePaperNumber & 并行算法 & DAC & RT-MDM: Real-Time Scheduling Framework for Multi-DNN on MCU Using External Memory & 轴连接图（ACG）表示，内存瓶颈导向的算子分区和调度 & 降低微型设备上的峰值内存使用，几乎不引入额外延迟 \\ \hline
    \thePaperNumber & 并行算法 & DAC & NetBooster: Empowering Tiny Deep Learning By Standing on the Shoulders of Deep Giants & 混合加速架构，稀疏感知加速调度器 &  提升TinyML学习性能，降低内存访问带来的性能损耗 \\ \hline
    \thePaperNumber & 分布式系统 & DAC & IP Protection in TinyML & 基于段组的内存管理策略，任务内调度器 & 提优化多DNN任务的执行，提供时间保证 \\ \hline
    \thePaperNumber & 编程模型与框架 & DAC & The larger the fairer?: small neural networks can achieve fairness for edge devices & FaHaNa框架，模型冻结方法 & 寻找公平且准确的神经网络架构 \\ \hline
    \thePaperNumber & 分布式系统 & DAC & FHDnn: communication efficient and robust federated learning for AIoT networks &融合CNNs和超维计算的协同联邦学习框架 & 提降低通信成本，提高对网络错误的鲁棒性 \\ \hline
%------------ dzy
    \thePaperNumber & 硬件优化与协同设计 & TACO & SAL: Optimizing the Dataflow of Spin-based Architectures for Lightweight Neural Networks & 轻量网络自旋架构及伪输入静止数据流 & 提出新的数据流设计和流水线优化方案 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & TACO & An Efficient Hybrid Deep Learning Accelerator for Compact and Heterogeneous CNNs & 混合 CNN 加速器 FiBHA，采用 SESL 和 SEML 捕获 CNN 中的异构性，实现对异构 CNN 的加速 & 针对紧凑型异构 CNN 设计了一种混合加速器 \\ \hline
    \thePaperNumber & 编程模型与框架 & TACO & ULEEN: A Novel Architecture for Ultra-low-energy Edge Neural Networks & 无权重神经网络、多遍反馈学习规则、RAM 节点剪枝 & 针对高吞吐低功耗边缘设备的边缘神经网络 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & TACO & ReSA: Reconfigurable Systolic Array for Multiple Tiny DNN Tensors & 脉动阵列子阵列划分、细粒度数据路由 & 一种能够高效处理微型 DNN 张量的脉动阵列 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & TACO & Multiply-and-Fire: An Event-Driven Sparse Neural Network Accelerator & 非结构化剪枝、事件驱动数据流 & 实现了 MnF 加速器，提升了处理稀疏 DNN 的性能并降低能耗 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & ASPLOS & TinyForge: A Design Space Exploration to Advance Energy and Silicon Area Trade-offs in tinyML Compute Architectures with Custom Latch Arrays & 定制化锁存阵列 & 提出一种使用定制化锁存阵列进行数据流和硬件设计的框架 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & TCAD & Efficient Processing of MLPerf Mobile Workloads Using Digital Compute-In-Memory Macros & 内存中计算（compute-in-memory） & 将 CIM 设计范式引入 DNN 推理平台 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & TCAD & A High-Throughput Full-Dataflow MobileNetv2 Accelerator on Edge FPGA & 量化算法、激活权重不平衡传输 & 设计全数据流 MobileNet V2 加速器 \\ \hline
    \thePaperNumber & 编程模型与框架 & TCAD & FedComp: A Federated Learning Compression Framework for Resource-Constrained Edge Computing Devices & 索引共享、参数打包、残差压缩 & 提供了高效的联邦学习通信压缩解决方案 \\ \hline
    \thePaperNumber & 编程模型与框架 & TCAD & EdgeCompress: coupling multi-dimensional model compression and dynamic inference for EdgeAI & 前景预测、动态推理 & 在资源受限设备上部署 CNN 用于图像分类 \\ \hline
    \thePaperNumber & 硬件优化与协同设计 & MICRO & BBS: Bi-directional Bit-level Sparsity for Deep Learning Acceleration & 双向比特级稀疏性、二值剪枝 & 通过 BBS 二值剪枝实现模型压缩 \\ \hline
    \thePaperNumber & 编程模型与框架 & NIPS & On-Device Training Under 256 KB Memory & 编译时优化、反向传播图剪枝 & 首次在内存仅 256 KB 的微控制器上进行模型训练 \\ \hline
    \thePaperNumber & 编程模型与框架 & NIPS & StreamNet: Memory-Efficient Streaming Tiny Deep Learning Inference on the Microcontroller & 张量数据重用、基于补丁推理 & 消除基于补丁的推理中的性能瓶颈 \\ \hline
    \caption{跨会议论文分类总览}
    \label{tab:papers}
\end{longtable}
\end{center}