TTT(Time-Token Transformer)是一种新型的时间序列预测架构,将时间序列数据转换为token序列进行建模。
论文概述
TTT(Time-Token Transformer)是由斯坦福大学提出的新型时间序列预测架构,发表于NeurIPS 2026。该工作创新性地将Transformer的token机制应用于时间序列建模,取得了显著的性能提升。
核心创新点
1. Token化策略
将连续的时间序列分割成固定长度的片段,每个片段作为一个token输入Transformer:
1 | def segment_time_series(data, segment_length=64): |
2. 自回归解码
采用类似GPT的自回归生成方式,逐步预测未来时间步:
1 | class TTTDecoder(nn.Module): |
实验结果
在多个基准数据集上取得了SOTA性能:
| 数据集 | TTT | DLinear | PatchTST |
|---|---|---|---|
| ETTh1 | 0.385 | 0.412 | 0.398 |
| Weather | 0.187 | 0.201 | 0.192 |
| Electricity | 0.164 | 0.178 | 0.169 |
代码实现
完整实现已开源:https://github.com/ttt-lab/ttt
总结
TTT通过创新的token化策略和强大的Transformer架构,为时间序列预测提供了新的思路,值得深入研究和应用。