Datasets:

ArXiv:
License:
Sherirto commited on
Commit
60160a0
·
verified ·
1 Parent(s): 64dc084

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +15 -0
README.md CHANGED
@@ -9,6 +9,21 @@ license: cc-by-nd-4.0
9
 
10
  | 日期 | 分享人 | 论文标题 | 论文链接 | 论文摘要 |
11
  | --------- | -------------------------------- | ----------- | ---------- | ------- |
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  | 2024/7/3 | 颜浩 | TAGA: Text-Attributed Graph Self-Supervised Learning by Synergizing Graph and Text Mutual Transformations | https://arxiv.org/pdf/2405.16800 | 本属性图上表示学习最近取得了广泛关注,但现有方法大多关注于监督学习范式,对标签数据较为依赖。本文介绍了一种新的文本图上自监督学习框架TAGA。其构造了两种可相互转化的视图,Text-of-Graph与Graph-of-Text,并通过对齐两个视图的表示来同时捕获文本图上的结构与语义知识。 |
13
  | 2024/7/31 | 殷珺 | Vector Quantization for Recommender Systems: A Review and Outlook | https://arxiv.org/pdf/2405.03110 | 推荐系统中的向量量化技术综述,主要内容包括经典向量量化技术简介、推荐系统中的向量量化以及向量随机量化技术简介。向量量化旨在将大规模的数据向量表示压缩到可学习的小规模编码本(codebook),被用于加速最近邻搜索、注意力机制等。近年来,其离散化索引能力受到关注,与生成式推荐系统紧密结合,作为推荐系统索引模块(indexer)得到广泛应用。 |
14
  | 2024/7/31 | 程铭 | Spatio-temporal Early Prediction based on Multi-objective Reinforcement Learning | https://arxiv.org/pdf/2406.04035 | 在预测任务中,准确性和时效性往往难以同时优化。过早得到的预测结果可能会导致较高的误报率,而能够获取更多信息的延迟预测可能会使结果失去时效性。在野外火灾、犯罪和交通拥堵等现实场景中,及时预测对于保障人类生命财产安全至关重要。因此,平衡准确性和时效性是研究的一大热点。本文提出了一种基于多目标强化学习的时空早期预测模型,该模型可以根据偏好实施最优策略,或基于少量样本推断偏好。该模型解决了两个主要挑战:1)提高早期预测的准确性;2)提供了一种能够确定每个区域最优预测时间的优化策略。 |
 
9
 
10
  | 日期 | 分享人 | 论文标题 | 论文链接 | 论文摘要 |
11
  | --------- | -------------------------------- | ----------- | ---------- | ------- |
12
+ | 2024/4/9 | 于志刚 | GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks | https://arxiv.org/pdf/2402.07197 | 图模型(GM)往往仅限于预定义格式(如节点分类)内的任务,无法完成开放式任务。LLM则可以完成开放式任务。尽管已经有几种将LLM应用于图的方法,但是它们不能同时处理预定义和开放式任务。本文试图将图模型与大语言模型对齐,从而使得模型能够同时处理预定义和开放式任务。 |
13
+ | 2024/4/16 | 杨珂懿 | DYffusion: A Dynamics-informed Diffusion Modelfor Spatiotemporal Forecasting | https://arxiv.org/pdf/2306.01984 | 提出了一种方法,用于有效地训练扩散模型进行概率时空预测,在这方面,生成稳定和准确的预测仍然是一个挑战。我们的方法,DYffusion,利用数据中的时间动态,将其与模型中的扩散步骤直接耦合。我们训练了一个随机的、时间条件的插值器和预测网络,分别模仿标准扩散模型的正向和反向过程。DYffusion自然地促进了多步骤和长范围的预测,允许高度灵活的、连续时间的采样轨迹,并能在推断时用加速采样来权衡性能。与传统基于高斯噪声的扩散模型相比,显著提高了计算效率。 |
14
+ | 2024/4/23 | 曹敏君 | Mamba: Linear-Time Sequence Modeling with Selective State Spaces | https://arxiv.org/pdf/2312.00752 | 本文介绍了一种新的序列模型架构,名为Mamba,它通过选择性状态空间模型(Selective State Space Models, SSMs)来改进传统的状态空间模型。Mamba通过输入依赖的方式调整SSM参数,允许模型根据当前的数据选择性地传递或遗忘信息,从而解决了以前模型在处理离散和信息密集型数据(如文本)时的不足。此外,尽管这种改变使得模型不能使用高效的卷积计算,研究者设计了一种硬件感知的并行算法,以递归模式运行,使得Mamba在推理速度上比传统的Transformer快5倍,并且在序列长度上实现线性缩放。 |
15
+ | 2024/4/30 | 程铭 | Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and Treatment | https://arxiv.org/pdf/2309.13378 | 时空神经图网络在时空预测过程中存在时间OOD问题和动态空间因果关系问题。 本文提出了一个新的框架CaST,通过使用一种新的解纠缠块的后门调整,将时间环境从输入数据中分离出来。此外,利用前门调整和边缘级卷积来模拟因果关系的连锁效应。 |
16
+ | 2024/4/30 | 王颖 | FUXI-DA: A GENERALIZED DEEP LEARNING DATA ASSIMILATION FRAMEWORK FOR ASSIMILATING SATELLITE OBSERVATIONS | https://arxiv.org/pdf/2404.08522 | 深度学习模型在匹配甚至超过全球领先的NWP模型的预测精度方面显示出了希望。这一成功激发了为天气预报模型量身定制的基于dl的数据分析框架的探索。本文介绍了一种基于dl的广义数据分析框架FuXi-DA,用于同化卫星观测数据。通过吸收风云四号b上先进地球同步辐射成像仪(AGRI)的数据,“FuXi-DA”不断减少分析误差,显著提高预报性能。 |
17
+ | 2024/5/7 | 颜浩 | Provable Training for Graph Contrastive Learning | https://arxiv.org/pdf/2309.13944 | GCL的学习过程主要包括:图数据增强;增强视图经过GNN获取节点表征,最后根据InfoNCE准则来进行优化。但考虑到图结构的复杂性,在GCL过程中,是否所有节点都能很好的遵循InfoNCE准则呢?本文对主流GCL方法进行了分析,发现了GCL训练过程中出现的不平衡现象,并提出了"Node Compactness"概念来度量不同的节点在GCL过程中对准则的遵循程度,所提方法POT能即插即用到其他GCL方法中。 |
18
+ | 2024/5/14 | 王梓辰 | BCDiff: Bidirectional Consistent Diffusion for Instantaneous Trajectory Prediction | https://proceedings.neurips.cc/paper_files/paper/2023/file/2e57e2c14232a7b99cf76213e190822d-Paper-Conference.pdf | 本文提出用于瞬时轨迹预测的双向一致扩散模型:BCDiff,通过设计一个相互指导机制来开发两个耦合扩散模型,该机制可以双向一致地逐步生成未观察到的历史轨迹和未来轨迹,以利用它们的互补信息相互指导进行预测。其次,由于去噪步骤初始阶段的轨迹存在较高噪声,模型引入一种门控机制学习轨迹预测和有限观察轨迹之间的权重,以平衡它们的贡献。BCDiff是一个无编码器的框架,可以和现有轨迹模型兼容。 |
19
+ | 2024/5/21 | 徐榕桧 | Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes | https://arxiv.org/pdf/2305.02301 | 部署大型语言模型(llm)具有挑战性,因为它们在实际应用中内存效率低下且计算密集型。通常,研究人员通过使用标签数据进行微调或使用llm生成的标签进行蒸馏来训练更小的特定任务模型。然而,微调和蒸馏需要大量的训练数据才能达到与llm相当的性能。本文提出了一种新的机制Distilling Step-by-Step,作者通过提取LLM原理,作为在多任务框架内训练小模型的额外监督。实现(a)训练比llm更小的模型,(b)与微调或蒸馏相比,需要更少的训练数据。 |
20
+ | 2024/5/28 | 刘若尘 | Direct Preference Optimization: Your Language Model is Secretly a Reward Model | https://arxiv.org/pdf/2305.18290 | 如何将大语言模型与人类行为对齐一直以来是NLP领域研究的重点,其中使用人类反馈的强化学习(reinforcement learning from human feedback,RLHF)是其中的代表性工作。然而RLHF的训练过程复杂且不稳定,需要先训练一个奖励函数再通过强化学习过程对大语言模型进行微调,第一篇论文利用了一种奖励函数与最优生成策略(我们需要的LLM)之间的映射关系,将绕过了强化学习过程,实现了端到端的训练。 |
21
+ | 2024/5/28 | 张舜洋 | KAN:Kolmogorov–Arnold Networks | https://arxiv.org/pdf/2404.19756 | 本篇论文自官宣以来,便受到了学术圈广泛关注。它号称是能在部分任务上以更少的参数量,实现MLPs的实验结果。那么本周组会我将介绍KAN的设计思路,并简单分析它的计算量从哪儿来 |
22
+ | 2024/6/4 | 金志晗 | Multi-stage neural networks: Function approximator of machine precision | https://arxiv.org/pdf/2307.08934 | 本文主要针对在实践中即使神经网络规模大,训练迭代时间长,也很难将预测误差降低到𝑂(1e−05)以下。为解决这个问题,作者开发了多阶段神经网络,将训练过程分为不同的阶段,每个阶段使用一个新的网络经优化以适应前一阶段的残差,使残差幅度大幅减小,证明多阶段神经网络有效地减轻了常规神经网络相关的频谱偏差,使其能够捕获目标函数的高频特征。此外,本文还证明回归问题和物理信息神经网络的多阶段训练的预测误差在有限次迭代内几乎可以达到双浮点的机器精度𝑂(1e−16),而仅使用单个神经网络很难达到这样的精确度。 |
23
+ | 2024/6/4 | 殷珺 | When to Pre-Train Graph Neural Networks? From Data Generation Perspective! | https://arxiv.org/pdf/2303.16458 | 本文针对图神经网络预训练的可行性(预期收益)进行研究,基于"当下游任务数据能够以高概率从预训练数据中生成时,预训练具有高可行性"这一假设,引入Graphon作为图生成模块,提出W2PGNN框架。该框架对于给定的下游任务数据和预训练数据,能够估计出GNN预训练的预期收益。作者在节点分类、图分类任务的多个现实数据集上展开实验,验证了W2PGNN可行性估计和下游任务最佳性能之间存在较高的相关性。 |
24
+ | 2024/6/11 | 于志刚 | Towards Versatile Graph Learning Approach: from the Perspective of Large Language Models | https://arxiv.org/pdf/2402.11641 | 图结构数据是现实世界中最常用和最广泛的应用场景。对于不同的应用程序,大量不同的学习任务以及图领域中复杂的图学习过程给人类专家设计通用的图学习方法带来了挑战。面对这些挑战,大语言模型(LLMs)因为具有广泛的知识和类人智能,为之提供了一个潜在的解决方案。本文提出了一个新颖的概念原型,用于设计具有LLMs的通用图学习方法。 |
25
+ | 2024/6/19 | 杨珂懿 | DIFFUSION-TS: INTERPRETABLE DIFFUSION FOR GENERAL TIME SERIES GENERATION | https://arxiv.org/pdf/2403.01742 | 本文提出了Diffusion-TS,这是一种新颖的基于扩散的框架,通过使用具有解耦时间表示的transformer生成高质量的多变量时间序列样本,设计了深度分解结构来引导Diffusion-TS捕捉时间序列的语义意义,而transformer从噪声模型输入中挖掘详细的序列信息。不同于现有的基于扩散的方法,本文训练模型在每个扩散步骤中直接重建样本而不是噪声,并结合基于傅里叶的损失项。Diffusion-TS有望生成既满足解释性又真实的时间序列。此外,研究表明,Diffusion-TS可以扩展到条件生成任务,如预测和插补,而无需进行任何模型更改。 |
26
+ | 2024/6/19 | 曹敏君 | Higher-Order Graph Convolutional Network with Flower-Petals Laplacians on Simplicial Complexes | https://arxiv.org/pdf/2309.12971 | 尽管GNN在各种任务上取得了成功,但基于成对网络的基础本质上限制了它们在复杂系统中识别潜在高阶相互作用的能力。为了弥补这一能力差距,本文提出了一种利用简单复合物(SCs)丰富的数学理论的新方法。目前基于SC的GNN具有较高的复杂性和刚性,高阶相互作用强度的量化仍然具有挑战性。本文创新性地提出了一个higher-order Flower-Petals(FP)模型,将FP拉普拉斯算子纳入到SCs中。此外,本文引入了一个基于FP拉普拉斯算子的高阶图卷积网络(HiGCN),能够在不同的拓扑尺度上识别内在特征。通过使用可学习的图过滤器(每个FP拉普拉斯域中的一个参数组),可以识别不同的模式,其中过滤器的权重作为高阶交互强度的可量化度量。实证研究表明,本文所提出的模型在一系列图任务上实现了最先进的性能,并提供了一个可扩展和灵活的解决方案来探索图中的高阶交互。 |
27
  | 2024/7/3 | 颜浩 | TAGA: Text-Attributed Graph Self-Supervised Learning by Synergizing Graph and Text Mutual Transformations | https://arxiv.org/pdf/2405.16800 | 本属性图上表示学习最近取得了广泛关注,但现有方法大多关注于监督学习范式,对标签数据较为依赖。本文介绍了一种新的文本图上自监督学习框架TAGA。其构造了两种可相互转化的视图,Text-of-Graph与Graph-of-Text,并通过对齐两个视图的表示来同时捕获文本图上的结构与语义知识。 |
28
  | 2024/7/31 | 殷珺 | Vector Quantization for Recommender Systems: A Review and Outlook | https://arxiv.org/pdf/2405.03110 | 推荐系统中的向量量化技术综述,主要内容包括经典向量量化技术简介、推荐系统中的向量量化以及向量随机量化技术简介。向量量化旨在将大规模的数据向量表示压缩到可学习的小规模编码本(codebook),被用于加速最近邻搜索、注意力机制等。近年来,其离散化索引能力受到关注,与生成式推荐系统紧密结合,作为推荐系统索引模块(indexer)得到广泛应用。 |
29
  | 2024/7/31 | 程铭 | Spatio-temporal Early Prediction based on Multi-objective Reinforcement Learning | https://arxiv.org/pdf/2406.04035 | 在预测任务中,准确性和时效性往往难以同时优化。过早得到的预测结果可能会导致较高的误报率,而能够获取更多信息的延迟预测可能会使结果失去时效性。在野外火灾、犯罪和交通拥堵等现实场景中,及时预测对于保障人类生命财产安全至关重要。因此,平衡准确性和时效性是研究的一大热点。本文提出了一种基于多目标强化学习的时空早期预测模型,该模型可以根据偏好实施最优策略,或基于少量样本推断偏好。该模型解决了两个主要挑战:1)提高早期预测的准确性;2)提供了一种能够确定每个区域最优预测时间的优化策略。 |