\subsubsection{RTAS}
\begin{itemize}
    \item harald等\cite{Harald2024TinyBFT}提出了\textit{TINYBFT库}，优化了\textit{嵌入式系统中高度资源受限设备的BFT状态机复制}。
\end{itemize}

\begin{itemize}
    \item \textbf{论文标题}：TinyBFT: Byzantine Fault-Tolerant Replication for Highly Resource-Constrained Embedded Systems
    \item \textbf{研究问题}：拜占庭式容错协议复制消耗了大量内存，无法适用于由高度资源受限设备组成的嵌入式系统。如何提出了通用解决方案,如何减少BFT状态机复制协议的内存占用量，如何提高协议效率
    \item \textbf{方法与技术}：进行了对不同BFT协议的设计进行的详细分析，包括选择适合嵌入式系统的PBFT协议作为基础，并对其进行了优化以减少内存消耗。
    此外，还针对嵌入式系统的特点，如有限的内存、网络不可靠等，提出了相应的解决方案，例如使用非挥发性存储来保存部分状态信息，以及利用节点之间的通信特点来提高协议效率。
    \item \textbf{主要贡献}：主要贡献在于提出了TINYBFT库，这是一种针对嵌入式系统中高度资源受限设备的BFT状态机复制解决方案。
    与现有的BFT协议相比，TINYBFT采用了静态分配技术来确保其内存消耗量上限，并且能够保证在具有极小内存资源的微型设备上运行
    \item \textbf{不足与未来方向}：论文需要进一步探讨在不同网络条件下（如高延迟或高丢包率）TinyBFT的表现和鲁棒性。
\end{itemize}

\subsubsection{ICLR}
\begin{itemize}
    \item luan等\cite{luan2024using}提出了\textit{基于LeNet的SNN对中国书法风格进行分类}，优化了\textit{低计算资源情况下的图像数据处理}。
\end{itemize}

论文详细分析如下：
\begin{itemize}
    \item \textbf{论文标题}：Using spiking neural networks to assist fine art and philology study: to classify styles of Chinese calligraphy with minimal computing power
    \item \textbf{研究问题}：在资源有限的情况下研究中国书法艺术，该研究对于理解人工智能与文化艺术之间的交叉领域具有重要意义
    \item \textbf{方法与技术}：使用基于LeNet的SNN（spiking neural networks）对中国书法的不同风格进行分类，并且比较了使用SNN和传统神经网络的效果
    \item \textbf{主要贡献}：相比于传统神经网络，SNN在相同的计算资源下可以取得更好的分类效果。这表明SNN可以在低计算资源的情况下对图像数据进行处理，
    这对于一些资源受限的场景非常有用，比如嵌入式设备等，还展示了SNN在跨学科研究中的潜力，可以应用于其他领域的研究，如生物医学工程、机器人学等
    \item \textbf{不足与未来方向}：将其应用在嵌入式设备上，如翻译笔，还能结合其他领域。
\end{itemize}

\subsubsection{DAC}
\begin{itemize}
    \item Hashan等\cite{Mendis2024DR}提出了\textit{DERO方法}，优化了\textit{微型设备中深度学习模型的实用性}。
    \item Wang等\cite{wang2023IP}提出了\textit{STML系统}，优化了\textit{TinyML模型的知识产权保护和内存利用}。
    \item Chand等\cite{chan2022FHDDnn}提出了\textit{FHDnn联邦学习框架}，优化了\textit{物联网网络中的联邦学习性能}。
\end{itemize}

\begin{itemize}
    \item \textbf{论文标题}：Deep Reorganization: Retaining Residuals in TinyML
    \item \textbf{研究问题}：在设计内存受限的智能微型设备时，由于深度神经网络中残差连接会额外增加内存需求，这使得设计极具挑战性。
    现有方法通过消除残差来降低峰值内存使用，但会导致显著的精度下降。如何在不显著降低精度的前提下，降低微型设备中因残差连接产生的峰值内存使用。
    \item \textbf{方法与技术}：论文提出了DERO（Deep Reorganization）方法，通过深入分析残差连接中操作的类型和相互依赖关系来重新组织残差连接,在不改变模型整体功能的前提下，减少中间数据在内存中的存储时间和存储量。
    \item \textbf{主要贡献}：与现有消除残差以降低内存使用的方法相比，DERO既保证了较低的峰值内存使用，又能使模型精度与原始有残差模型接近，提升了微型设备中深度学习模型的实用性，为智能微型设备的发展提供了有力支持。
    \item \textbf{不足与未来方向}：DERO在处理某些复杂模型结构或特定应用场景时存在局限性，其通用性有待进一步提升。文章并没有实验说明残差连接对内存需求的影响是足够大的。 
\end{itemize}

\begin{itemize}
    \item \textbf{论文标题}：IP Protection in TinyML
    \item \textbf{研究问题}：在资源受限的微控制器（MCU）上部署微小机器学习（TinyML）模型时，如何保护模型的知识产权（IP），同时优化内存利用和降低运行时延迟，确保模型的安全性和准确性
    \item \textbf{方法与技术}：提出 STML （Secure Tiny Machine Learning）系统，通过系统和算法协同设计，利用 ARM TrustZone 保护 TinyML 模型的 IP。
    将 DL 模型执行隔离在安全世界，部分模型参数存储在外部闪存并加密，执行时加载到安全世界的 SRAM 并解密。采用逐层执行 DL 模型和内存交换策略，减少 SRAM 需求并动态分配内存。
    通过动态规划算法，确定模型层参数在内部和外部闪存的存储策略，优化内部闪存使用，减少内存交换。采用遗传算法搜索最优的 SRAM 分配策略，同时利用算法级模型优化技术减少模型推理延迟，并通过计算和 I/O 并行性进一步降低整体延迟
    \item \textbf{主要贡献}：保护 TinyML 模型的知识产权，同时减少模型执行延迟和保持开发者指定的准确性要求。实验表明，STML 在保护模型 IP 的同时，平均减少了 40\% 的模型保护运行时开销
    \item \textbf{不足与未来方向}：该安全系统主要针对可预测工作负载的系统设计，未考虑对抗边信道攻击和冷启动攻击等其他攻击向量的防御，且未对能量效率等其他关键性能指标进行研究。
    调整 DL 执行延迟建模，使 STML 适用于其他系统；研究提升能量效率等指标，满足不同 TinyML 应用场景需求；探索防御其他攻击向量的方法，增强模型在边缘设备上部署的安全性
\end{itemize}

\begin{itemize}
    \item \textbf{论文标题}：FHDnn: communication efficient and robust federated learning for AIoT networks
    \item \textbf{研究问题}：物联网和边缘计算的发展推动了联邦学习的应用，但物联网网络存在传输成本高、网络不可靠和计算能力有限等问题，严重制约了联邦学习的发展。如何克服这些瓶颈，实现高效、稳健的联邦学习，是当前面临的关键问题。
    \item \textbf{方法与技术}：提出FHDnn，一种融合卷积神经网络（CNNs）和超维计算优势的协同联邦学习框架。通过自监督对比学习框架提取特征，再进行超维学习，避免传输CNN，仅训练超维部分，以此加速训练过程、降低通信成本并增强对网络错误的鲁棒性。 
    \item \textbf{主要贡献}：创新性地将CNNs和超维计算结合，提出FHDnn联邦学习框架，实验表明，与传统CNNs相比，FHDnn能将通信成本降低66倍，本地客户端计算和能耗降低1.5 - 6倍，同时在保证准确率仅有微小损失的情况下，对网络错误具有高度鲁棒性。
    \item \textbf{不足与未来方向}：在处理某些特定复杂任务或不同数据分布时，性能表现会受到一定限制，且超维计算部分可能在模型可解释性方面存在欠缺。，未来可进一步优化FHDnn框架，提升其在复杂任务和不同数据分布场景下的性能；探索提高超维计算模型可解释性的方法，使模型的工作机制更加透明
\end{itemize}