【Hacker News搬运】Amazon Chronos: Learning the Language of Time Series
-
Title: Amazon Chronos: Learning the Language of Time Series
亚马逊Chronos:学习时间序列的语言
Text:
Url: https://arxiv.org/abs/2403.07815
标题:Chronos:学习时间序列的语言 作者:Abdul Fatir Ansari, Lorenzo Stella, Caner Turkmen, Xiyuan Zhang, Pedro Mercado, Huibin Shen, Oleksandr Shchur, Syama Sundar Rangapuram, Sebastian Pineda Arango, Shubham Kapoor, Jasper Zschiegner, Danielle C. Maddix, Michael W. Mahoney, Kari Torkkola, Andrew Gordon Wilson, Michael Bohlke-Schneider, Yuyang Wang 提交日期:2024年3月12日 发布日期:未提供 摘要:我们介绍了Chronos,一个简单 yet 有效的预训练概率时间序列模型框架。Chronos 使用缩放和量化将时间序列值分割成固定词汇表,并训练现有的基于Transformer的语言模型架构这些分割的时间序列通过交叉熵损失。我们基于T5家族(从20M到710M参数)预训练了Chronos模型,在大量公开可用的数据集上,并通过高斯过程生成的合成数据集来提高泛化能力。在一个包含42个数据集的全面基准测试中,包括经典局部模型和深度学习方法,我们显示Chronos模型:(a)在训练语料库部分的数据集上显著优于其他方法;以及(b)与专门训练它们的方法相比,在新数据集上具有相当优越的零样本性能。我们的结果表明,Chronos模型可以利用来自不同领域的时间序列数据,以提高在未见预测任务上的零样本准确性,将预训练模型定位为大大简化预测管道的可行工具。 提交历史:Abdul Fatir Ansari [查看电子邮件] [v1] 周二,2024年3月12日 16:53:54 UTC (1,128 KB)
Post by: Anon84
Comments:
roca: Doesn't cite TimesFM for some reason. Maybe the latter was published after this paper went camera-ready? <a href="https://blog.research.google/2024/02/a-decoder-only-foundation-model-for.html" rel="nofollow">https://blog.research.google/2024/02/a-decoder-only-foundati...</a>
roca: 不;出于某种原因,我没有引用TimesFM。也许后者是在这篇论文准备好拍照后发表的<a href=“https://;/;blog.research.google/!2024/?02/:a-decoder-only-foundation-model-for.html”rel=“nofollow”>https:///;blog.research.google/;2024;02;a-仅限解码器-基础</一