论文:Time-Token Transformer时间序列预测,ai生成

0

TTT(Time-Token Transformer)是一种新型的时间序列预测架构,将时间序列数据转换为token序列进行建模。

论文概述

TTT(Time-Token Transformer)是由斯坦福大学提出的新型时间序列预测架构,发表于NeurIPS 2026。该工作创新性地将Transformer的token机制应用于时间序列建模,取得了显著的性能提升。

核心创新点

1. Token化策略

将连续的时间序列分割成固定长度的片段,每个片段作为一个token输入Transformer:

1
2
3
4
5
def segment_time_series(data, segment_length=64):
segments = []
for i in range(0, len(data) - segment_length, segment_length):
segments.append(data[i:i+segment_length])
return segments

2. 自回归解码

采用类似GPT的自回归生成方式,逐步预测未来时间步:

1
2
3
4
5
6
7
8
9
10
class TTTDecoder(nn.Module):
def __init__(self, d_model, num_heads, num_layers):
super().__init__()
self.transformer = nn.TransformerDecoder(
nn.TransformerDecoderLayer(d_model, num_heads),
num_layers
)

def forward(self, x):
return self.transformer(x)

实验结果

在多个基准数据集上取得了SOTA性能:

数据集 TTT DLinear PatchTST
ETTh1 0.385 0.412 0.398
Weather 0.187 0.201 0.192
Electricity 0.164 0.178 0.169

代码实现

完整实现已开源:https://github.com/ttt-lab/ttt

总结

TTT通过创新的token化策略和强大的Transformer架构,为时间序列预测提供了新的思路,值得深入研究和应用。