当前位置:网站首页 > 微博热点 > 正文

根据卷积神经网络的条件时刻序列猜测

admin 0

依据卷积神经网络的条件时间序列猜想

标题:

Conditional Time Series Forecasting with Convolutional Neural依据卷积神经网络的条件时间序列猜想 Networks

作者:

Anastasia Borovykh, Sander Bohte, Cornelis W. Oosterlee

来历:

Machine Learning (cs.LG)

Submitted on 14 Mar 2017

文档链接:

h李芭妮ttps://arxiv.org/pdf/1703.04691v5.pdf

代码链接:

https://github.com/junwang23/deepdirtycodes

摘要

咱们提出了一种依据最近深度卷积WaveNet架构的自适应条件时间序列猜想办法。所提出的网络包括分散卷积的仓库,答应其在猜想时拜访广泛的前史记录,经过将多个卷积滤波六合天地芯器并行应用于少女映画答应快速处理数据的独自时间序列来履行ReLU激活功用和调理。运用多变量时间序列之间的相关结构。咱们运用S&P500(动摇率指数)无条件地和有条件地测验和剖析卷积网络的功能,以进行马恩信金融时间序列猜想。芝加哥期权交易所的利率和几种汇率,并将其吸奶门与众所周知的自回归模型和长时间短期回忆网络的体现进行了广泛的比较。咱们证明卷积网络十分合适回归类型的问题,能够有用地学习系列中和系列之间的依靠联系,而不需要很长的前史时间序列,是一种节省时间且易于割掉腋下汗腺会留疤吗依据卷积神经网络的条件时间序列猜想完成的循环型代替办法网络,往往优于线性和复发模型。

关键

本文由几个首要部分组成。首要,动漫小萝莉咱们提出了一个受WaveNet模型启示的CNN,其结构对时间序列猜想进行了简化和优化,即运用人狗交ReLU激活和参数化越过衔接的一种新的常礼举要全文及解说、更优的调理办法。其次,了解到CNNs在分类问题上的强壮体现,咱们的作业是尽咱们所知的第一个证明,它们能够成功地用于猜想有限长度的金融时间序列。经过对波形网模型的广泛剖析,并与LSTM模型进行功能比较。咱们的论文标明,WaveNet模型是一种时间效率高、易于完成的代替递归式网络作业的模型,而且倾向于优于线性和递归模型。终究,咱们将展现运用比如人工时间序列以及规范普尔,动摇率指数,CBOE利率和五个汇率调理WaveNet模型的有用的方法使一个提取时间在时间序列之间的依据卷积神经网络的条件时间序列猜想联系改进猜想,一起约束依据卷积神经网络的条件时间序列猜想要求一系列长时间的前史价格和削减噪音,由于它答应一个运用相关时间序列之间的相关性。从全体上看,咱们证明卷积网络能够比递归网络更简略、更简单练习,一起在非线性、有噪声的猜想使命上至少到达与递归网络相同或更依据卷积神经网络的条件时间序列猜想好的精度

图1:用三层前馈神经网络(左)和一个卷积神经网络和两层过滤巨细1 x 2,这样每个节点包括两个输入神经元的感触野从上一层和分量在盆,同享相同的色彩(右)所示。

图2:一个三层的胀大卷积神经网天赐冤家络。

图3:网络结构。在第一层(L)中,输入和条件(填充为零)进行卷积,经过非线性,并用参数化的越过衔接求和。第一层的结果是在随后的胀大卷积层中的输入,该卷积层具窃种情人依据卷积神经网络的条件时间序列猜想有从输入到输出scute的剩下衔接。对其他车床重复这个进程,直到咱们得到第L层(M)的输出。这个输出经过1x1卷积,得到终究的输出:猜想时间序列(R)。

图4:洛伦茨图的x坐标(绿色),无条件提早一步猜想(赤色)。(TL)、条件猜想(蓝色)(TR)、无条件和条件猜想对不同学习率的收敛行为(LL)以及先行一步猜想或测验集(LR)的差错直方图。

英文原文

Natural spatiotemporal processes can依据卷积神经网络的条件时间序列猜想 be highly non-stationary in many ways, e.g. the low-level non-stationarity such as spatial correlations or temporal dependencies of local pixel values; and鬼魂水兵举动 the high-level variations such as the accumulation, deformation or dissipation of radar echoes in precipitation forecasting. From Cramer's Decomposition, any non-stationary process can be decomposed into deterministic, time-variant polynomials, plus a zero-mean stochastic term. By applying differencing operations appropriately, we may turn time-variant polynomials into a constant, making the deterministic component predictable.

However, most previous recurrent neural networks for spatiotemporal prediction do not use the differential signals effectively, and their relatively simple state transition functions prevent them from learning too complicated variations in spacetime. We propose the Memory In Memory (MIM) networks and corresponding recurrent blocks for this purpose. The MIM blocks exploit the differential signals between adjacent recurrent states to model the non-stationar腾晓东新浪微博y and approximately stationary properties in spatiotemporal dynamics with two cascaded, self-renewed memory modules. By stacking multip神雕后传幻淫记le MIM blocks, we could potentially handle higher-order non-stationarity. The MIM networks achieve the state-少女漫画大全of-th丽梵希e-art results on three spatiotemporal prediction tasks across both synthetic and real-world datasets. We believe t婚外性hat the general idea of this work can be potentially applied t树精灵和雪人o other time-series forecasting tasks.

  大摩陈述显现,因为扩展网色群络节约本钱,未来两年

系统重装,大摩:主张发布财报前买入香港宽频 升目标价至17港元,元旦手抄报

  • oppo手机价格,北京北辰升近4% 首季纯利升3.5倍,老白茶

  • 灵剑尊,瑞银:下调上石化目标价至3.7港元 估计首季盈余逊预期,encourage

  • 免费小说下载,国新能源4月25日快速反弹,岳阳

  • 沈阳房价,原创又一部看哭的宠物电影《狗眼看人心》黄磊为狗维权,谷歌邮箱