Update README.md
Browse files
README.md
CHANGED
@@ -10,7 +10,7 @@ license: cc-by-nd-4.0
|
|
10 |
|
11 |
|日期|分享人|期刊或会议|论文标题|论文链接|论文摘要|
|
12 |
|-|-|-|-|-|-|
|
13 |
-
| 2024/4/9 |<img width=
|
14 |
| 2024/4/16 | 杨珂懿 | NeurIPS2023 | DYffusion: A Dynamics-informed Diffusion Modelfor Spatiotemporal Forecasting | https://arxiv.org/pdf/2306.01984 | 提出了一种方法,用于有效地训练扩散模型进行概率时空预测,在这方面,生成稳定和准确的预测仍然是一个挑战。我们的方法,DYffusion,利用数据中的时间动态,将其与模型中的扩散步骤直接耦合。我们训练了一个随机的、时间条件的插值器和预测网络,分别模仿标准扩散模型的正向和反向过程。DYffusion自然地促进了多步骤和长范围的预测,允许高度灵活的、连续时间的采样轨迹,并能在推断时用加速采样来权衡性能。与传统基于高斯噪声的扩散模型相比,显著提高了计算效率。 |
|
15 |
| 2024/4/23 | 曹敏君 | Arxiv.2312 | Mamba: Linear-Time Sequence Modeling with Selective State Spaces | https://arxiv.org/pdf/2312.00752 | 本文介绍了一种新的序列模型架构,名为Mamba,它通过选择性状态空间模型(Selective State Space Models, SSMs)来改进传统的状态空间模型。Mamba通过输入依赖的方式调整SSM参数,允许模型根据当前的数据选择性地传递或遗忘信息,从而解决了以前模型在处理离散和信息密集型数据(如文本)时的不足。此外,尽管这种改变使得模型不能使用高效的卷积计算,研究者设计了一种硬件感知的并行算法,以递归模式运行,使得Mamba在推理速度上比传统的Transformer快5倍,并且在序列长度上实现线性缩放。 |
|
16 |
| 2024/4/30 | 程铭 | NeurIPS2023 | Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and Treatment | https://arxiv.org/pdf/2309.13378 | 时空神经图网络在时空预测过程中存在时间OOD问题和动态空间因果关系问题。 本文提出了一个新的框架CaST,通过使用一种新的解纠缠块的后门调整,将时间环境从输入数据中分离出来。此外,利用前门调整和边缘级卷积来模拟因果关系的连锁效应。 |
|
|
|
10 |
|
11 |
|日期|分享人|期刊或会议|论文标题|论文链接|论文摘要|
|
12 |
|-|-|-|-|-|-|
|
13 |
+
| 2024/4/9 |<img width=600/>于志刚| WWW2024| GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks | https://arxiv.org/pdf/2402.07197 | 图模型(GM)往往仅限于预定义格式(如节点分类)内的任务,无法完成开放式任务。LLM则可以完成开放式任务。尽管已经有几种将LLM应用于图的方法,但是它们不能同时处理预定义和开放式任务。本文试图将图模型与大语言模型对齐,从而使得模型能够同时处理预定义和开放式任务。 |
|
14 |
| 2024/4/16 | 杨珂懿 | NeurIPS2023 | DYffusion: A Dynamics-informed Diffusion Modelfor Spatiotemporal Forecasting | https://arxiv.org/pdf/2306.01984 | 提出了一种方法,用于有效地训练扩散模型进行概率时空预测,在这方面,生成稳定和准确的预测仍然是一个挑战。我们的方法,DYffusion,利用数据中的时间动态,将其与模型中的扩散步骤直接耦合。我们训练了一个随机的、时间条件的插值器和预测网络,分别模仿标准扩散模型的正向和反向过程。DYffusion自然地促进了多步骤和长范围的预测,允许高度灵活的、连续时间的采样轨迹,并能在推断时用加速采样来权衡性能。与传统基于高斯噪声的扩散模型相比,显著提高了计算效率。 |
|
15 |
| 2024/4/23 | 曹敏君 | Arxiv.2312 | Mamba: Linear-Time Sequence Modeling with Selective State Spaces | https://arxiv.org/pdf/2312.00752 | 本文介绍了一种新的序列模型架构,名为Mamba,它通过选择性状态空间模型(Selective State Space Models, SSMs)来改进传统的状态空间模型。Mamba通过输入依赖的方式调整SSM参数,允许模型根据当前的数据选择性地传递或遗忘信息,从而解决了以前模型在处理离散和信息密集型数据(如文本)时的不足。此外,尽管这种改变使得模型不能使用高效的卷积计算,研究者设计了一种硬件感知的并行算法,以递归模式运行,使得Mamba在推理速度上比传统的Transformer快5倍,并且在序列长度上实现线性缩放。 |
|
16 |
| 2024/4/30 | 程铭 | NeurIPS2023 | Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and Treatment | https://arxiv.org/pdf/2309.13378 | 时空神经图网络在时空预测过程中存在时间OOD问题和动态空间因果关系问题。 本文提出了一个新的框架CaST,通过使用一种新的解纠缠块的后门调整,将时间环境从输入数据中分离出来。此外,利用前门调整和边缘级卷积来模拟因果关系的连锁效应。 |
|