论文发表百科

时间序列异常检测精选论文

发布时间:2024-07-03 06:59:43

时间序列异常检测精选论文

“异常”通常是一个主观的判断,什么样的数据被认为是“异常”的,需要结合业务背景和环境来具体分析确定。实际上,数据通常嵌入在大量的噪声中,而我们所说的”异常值“通常指具有特定业务意义的那一类特殊的异常值。噪声可以视作特性较弱的异常值,没有被分析的价值。 在普通的数据处理中,我们通常保留正常的数据,而对噪声和异常值的特性则基本忽略。但在异常检测中,我们弱化了“噪声”和“正常数据”之间的区别,专注于那些具有有价值特性的异常值。在基于相似度的方法中,主要思想是异常点与正常点不同。 基于距离的方法是一种常见的异常检测算法,它基于最邻距离来定义异常值。此类方法不仅适用于多维数值数据,在其他领域,例如分类数据,文本数据,时间序列数据序列数据也有广泛的应用。 基于距离的异常检测有这样一个前提假设,即异常点的 近邻距离要远大于正常点。解决问题的最简单的方法是使用嵌套循环。第一层循环遍历每个数据,第二层循环进行异常判断,需要计算当前点与其他点的距离,一旦已识别出多余 个数据点与当前点的距离在 之内,则将该点自动标记为非异常值。这样计算的时间复杂度为 ,当数据量较大时,这样计算并不划算。因此需要修剪方法以加快距离计算。 在基于单元格的技术中,数据空间被划分为单元格,单元格的宽度是阈值D和数据维度数的函数。具体地说,每个维度被划分成宽度最多为 单元格。在给定的单元以及相邻的单元中存在的数据点满足某些特性,这些特性可以让数据被更有效的处理 以二维情况为例,此时网格间的距离为 ,需要记住的一点是,网格单元的数量基于数据空间的分区,并且与数据的数量点无关。这是决定该方法在低维数据上的效率的重要因素,在这种情况下,网格单元的数量可能不多。另一方面,此方法不适用于更高维的数据。对于给定的单元格,其 邻居被定义为通过最多1个单元间的边界可从该单元到达的单元格的集合。请注意,在一个角上接触的两个单元格也是 邻居。 邻居是通过跨越2个或者3个边界而获得的那些单元格。上图中显示了标记为 的特定单元格及其 和 邻居集。显然,内部单元具有8个 邻居和40个 邻居。然后,可以立即观察到以下的几种性质: 此过程的第一步是将部分数据点直接标记为非异常值(如果由于第一个规则而导致他们的单元格包含 个点以上)。此外,此类单元格的所有相邻单元格仅包含非异常值。为了充分利用第一条规则的修剪能力,确定每个单元格及其 邻居中点的总和。如果总数大于 ,则这些点也都标记为非离群点。 接下来,利用第二条规则的修剪能力。 对于包含至少一个数据点的每个单元格 ,计算其中的点数及其 和 邻居的总和。 如果该数字不超过 ,则将单元格 中的所有点标记为离群值。 此时,许多单元可能被标记为异常值或非异常值。 对于此时仍未标记为异常值或非异常值的单元格中的数据点需要明确计算其 最近邻距离。即使对于这样的数据点,通过使用单元格结构也可以更快地计算出 个最近邻的距离。考虑到目前为止尚未被标记为异常值或非异常值的单元格 。这样的单元可能同时包含异常值和非异常值。单元格 中数据点的不确定性主要存在于该单元格的 邻居中的点集。无法通过规则知道 的 邻居中的点是否在阈值距离 内,为了确定单元 中数据点与其 邻居中的点集在阈值距离 内的点数,需要进行显式距离计算。对于那些在 和 中不超过 个且距离小于 的数据点,则声明为异常值。需要注意,仅需要对单元 中的点到单元 的 邻居中的点执行显式距离计算。这是因为已知 邻居中的所有点到 中任何点的距离都小于 ,并且已知 中 的所有点与 上任何点的距离至少为 。因此,可以在距离计算中实现额外的节省。 对于一个给定数据集,基于索引的方法利用多维索引结构(如 树、 树)来搜索每个数据对象 在半径 范围 内的相邻点。设 是一个异常值在其 -邻域内允许含有对象的最多个数,若发现某个数据对象 的 -邻域内出现 甚至更多个相邻点, 则判定对象 不是异常值。该算法时间复杂度在最坏情况下为 其中 是数据集维数, 是数据集包含对象的个数。该算法在数据集的维数增加时具有较好的扩展性,但是时间复杂度的估算仅考虑了搜索时间,而构造索引的任务本身就需要密集复杂的计算量。 基于密度的算法主要有局部离群因子(LocalOutlierFactor,LOF),以及LOCI、CLOF等基于LOF的改进算法。下面我们以LOF为例来进行详细的介绍和实践。 基于距离的检测适用于各个集群的密度较为均匀的情况。在下图中,离群点B容易被检出,而若要检测出较为接近集群的离群点A,则可能会将一些集群边缘的点当作离群点丢弃。而LOF等基于密度的算法则可以较好地适应密度不同的集群情况。 那么,这个基于密度的度量值是怎么得来的呢?还是要从距离的计算开始。类似k近邻的思路,首先我们也需要来定义一个“k-距离”。 对于数据集D中的某一个对象o,与其距离最近的k个相邻点的最远距离表示为k-distance(p),定义为给定点p和数据集D中对象o之间的距离d(p,o),满足: 由k-距离,我们扩展到一个点的集合——到对象o的距离小于等于k-距离的所有点的集合,我们称之为k-邻域: 。 在二维平面上展示出来的话,对象o的k-邻域实际上就是以对象o为圆心、k-距离为半径围成的圆形区域。就是说,k-邻域已经从“距离”这个概念延伸到“空间”了。 有了邻域的概念,我们可以按照到对象o的距离远近,将数据集D内的点按照到o的距离分为两类: 给定点p关于对象o的可达距离用数学公式可以表示为: 。 这样的分类处理可以简化后续的计算,同时让得到的数值区分度更高。 我们可以将“密度”直观地理解为点的聚集程度,就是说,点与点之间距离越短,则密度越大。在这里,我们使用数据集D中给定点p与对象o的k-邻域内所有点的可达距离平均值的倒数(注意,不是导数)来定义局部可达密度。   给定点p的局部可达密度计算公式为: 由公式可以看出,这里是对给定点p进行度量,计算其邻域内的所有对象o到给定点p的可达距离平均值。给定点p的局部可达密度越高,越可能与其邻域内的点 属于同一簇;密度越低,越可能是离群点。 表示点p的邻域 内其他点的局部可达密度与点p的局部可达密度之比的平均数。如果这个比值越接近1,说明o的邻域点密度差不多,o可能和邻域同属一簇;如果这个比值小于1,说明o的密度高于其邻域点密度,o为密集点;如果这个比值大于1,说明o的密度小于其邻域点密度,o可能是异常点。 最终得出的LOF数值,就是我们所需要的离群点分数。在sklearn中有LocalOutlierFactor库,可以直接调用。下面来直观感受一下LOF的图像呈现效果。 LocalOutlierFactor库可以用于对单个数据集进行无监督的离群检测,也可以基于已有的正常数据集对新数据集进行新颖性检测。在这里我们进行单个数据集的无监督离群检测。 首先构造一个含有集群和离群点的数据集。该数据集包含两个密度不同的正态分布集群和一些离群点。但是,这里我们手工对数据点的标注其实是不准确的,可能有一些随机点会散落在集群内部,而一些集群点由于正态分布的特性,会与其余点的距离相对远一些。在这里我们无法进行区分,所以按照生成方式统一将它们标记为“集群内部的点”或者“离群点”。 然后使用LocalOutlierFactor库对构造数据集进行训练,得到训练的标签和训练分数(局部离群值)。为了便于图形化展示,这里对训练分数进行了一些转换。 可以看出,模型成功区分出了大部分的离群点,一些因为随机原因散落在集群内部的“离群点”也被识别为集群内部的点,但是一些与集群略为分散的“集群点”则被识别为离群点。   同时可以看出,模型对于不同密度的集群有着较好的区分度,对于低密度集群与高密度集群使用了不同的密度阈值来区分是否离群点。   因此,我们从直观上可以得到一个印象,即基于LOF模型的离群点识别在某些情况下,可能比基于某种统计学分布规则的识别更加符合实际情况。

动态图上的异常检测任务包括:发现异常的对象、关系、时点。动态图上的异常检测与静态图上的异常检测不同的地方在于:

本文首先将异常类型分为:anomalous vertices, edges, subgraphs, and events(or change),将使用的方法分为:community detection, MDL(minimum description length) and compression, decompression, distance, probabilistic, 按每种方法使用的异常类型进行了文献学分类。各方法的主要参考文献见表1:

本文假设不同时点的节点和边都有唯一标签从而不会混淆,定义 为图序列,其中 为总时间步, , 为节点集, 为边集, 时称 为图流。本文的主要记号见表2:

给定 ,节点集 ,打分函数 ,定义异常节点集为 ,使得对于 , ,其中 为得分 的摘要式统计。

一个典型的异常节点如图1,其可由基于社区检测的方法识别,即: 其中 为节点所属的社会划分, 为异或操作。

给定 ,边集 ,打分函数 ,定义异常边集为 ,使得对于 , ,其中 为得分 的摘要式统计。

一个典型的异常边如图2,可令 ,其中 为时间步 时 的权重,可以为边的概率。

给定 ,子图集 ,打分函数 ,定义异常集为 ,使得对于 , ,其中 为得分 的摘要式统计。

两种典型的异常子图如图3,其中(a)为图的收缩,(b)为图的分裂。图的收缩可根据子图中的的数量衡量,即 ,图的分裂可由不同时间点社区的数量衡量。

与异常节点、边、子图检测不同,异常事件或异常突变检测检验的是时点。

给定 ,打分函数 ,若时点 满足: , ,则称时点 为一个事件。

给定 ,打分函数 ,若时点 满足: , ,则称时点 为一个突变。

通常的异常检测都使用两步法:第一步,基于特征的图表示;第二,基于机器学习的异常检测。

基于社区检测的方法关注的是社区和关联节点的演化过程,特征向量的生成亦基于图中的社区结构。不同社区检测方法的区别在于:(1)社区结构的领域,如社区内的连接性.单个节点在每一步所属的社区;(2)社区结构的定义,如基于概率的软社区定义.硬社区定义。基于社区检测的方法可用于异常定点、子图、突变的检测。

基于软社区匹配并单独考察每一个社区,我们可以在连续时间步内计算每个节点归属的平均变化,如果某个节点归属的平均变化显著异于其他节点,则称其为演化社区异常点。

节点社区归属的变化可以构造一个时间模式,称为软时序模式。一些文献使用了最小描述长度(MDL)结合非负矩阵分解的方法来自动检测节点角色及构造转移模型。多数文献通过抽取图中不同节点的共同模式,并比较每个节点与共同模式之间的差异来定义异常节点。部分文献使用了交替迭代优化替代常用的两步法。部分文献使用了corenet的概念,该概念不同于单纯使用density,modularity,hop-distance等概念,而是使用了节点间的加权路径,即一个节点的corenet包含该节点与权重大于给定阈值的两跳邻居。假设两个强连接的节点通常属于同一社区,则如果移除一个节点的两个邻居,一个邻域具有较高的边权重,另一个具有较低的边权重,则移除较高权重邻居的影响应更大,在每一步,每个节点首先被赋予一个异常得分,该得分衡量了其corenet的变化,异常得分较高的 各节点将被视为异常节点。

文献【69】定义了六种基于社区的异常:shrink, grow, merge, split, born, and vanish。其使用图和社区代表(representatives)进行比较以减少计算量,图代表为出现在t时刻,同时还出现在t-1、t+1或t+1与t-1时刻的节点集,社区代表是出现在其他社区最少的定点集合,基于社区代表和图代表,基于规则,判断社区是否落在六种异常中。

文献【73】定义了一种基于社区的异常:comet,周期性出现或消失的社区,演化图可表示为一个张量,然后基于低秩张量分解和MDL原则进行comet检测。

文献【3】基于多种信息源构造时序复网络,识别跨时间和网络的稳定社区结构。行为相似的网络可以用聚类或前验知识分组,如何一个社区结构在组内跨时间步稳定,但在组外没有对应社区,则该社区即为异常,如何两个社区共享一定比例的定点则称为对应。

社交网络可以根据特定时间窗口内的发文量定义事件,一个经历共同事件的组即构成一个异常子图。

通过划分图流为一致的分割来检测,分割是依据划分的相似性。

通过将最新图的顶点分区与当前增长分割中的图的分区进行比较,可以在线找到这些分割。【67】基于可返回随机的相关矩阵和modularity最大化来进行定点划分,当新图的划分与当前分割的划分有很大不同时,一个新段开始,并将新图的时间点输出为检测到的突变。两个划分的相似度使用Jaccard系数定义。GraphScope思路类似,但基于MDL来指导划分和分割。

基于MDL原则和基于该原则的压缩技术利用数据中的模式和规律性实现紧凑的图表示,其主要通过将图的邻接矩阵表示为一个二进制串,如果矩阵的行和列可以重新排列使矩阵的二进制字符串表示的熵最小化,那么压缩损失(也称为编码损失)就会最小化。数据指向的特征都来自于图或其特定子结构的编码代价;因此,异常被定义为抑制可压缩性的图或子结构(如边)

对于一条边和对应子图,如果包含该边的编码损失比不包含该边的编码损失高,则称该边为异常边。

【74】使用了一种两步交替迭代法进行节点的自动划分,当节点划分的熵收敛时,根据包含和不包含该边的编码损失,该方法也给出了边的异常度得分。

突变检测的主要思路是:连续时间步间的图是相似的,因而可以分为一组,从而降低压缩比。压缩比的上升表明新一个时间步的图与已有的图差异明显,因此是一个突变。

该方法将图集合表示为一个tensor,在该tensor上进行矩阵分解或降维,基于分解或降维后的图发现其模式和规律性,该方法可以融合更多属性信息,最常用的方法是SVD和PARAFAC(广义SVD)。

矩阵分解可用于计算每个节点的活跃(activity)向量,如果某个节点的活跃向量在连续时间步间变化明显,则称为异常节点。

【87】首先抽取每个节点的边相关矩阵 ,即该节点的每个邻域都有一行一列,对于节点 的矩阵中的一个entry 代表了边 和 间加权频率的相关性,加权频率由衰减函数获得,时间越近权重越高。M的最大特征值和对应特征向量即顶点的活跃向量的summary及边的相关性。通过寻找这些值的变化而形成的时间序列用于计算每个时间步长中每个顶点的分数,得分高于阈值的顶点将被输出为异常。

基于分解的异常事件检测有两种方法:(1)先基于分解方法来近似原始数据,然后以重建损失作为近似优劣的指标。如果某个子张量、切片或元素的重建损失很高,则即可以视其与周围数据不同特征不同,将其标记为异常事件、子图或节点。(2)跟踪奇异值和向量,以及特征值和特征向量,以检测异常顶点的显著变化。

为解决 intermediate blowup 问题(即计算中输入和输出张量超过内存限制),【81】提出了momery-efficient tucker(MET)分解方法,该方法源于Tucker分解,Tucker分解将高阶tensor用一个core tensor和每个mode(维度)矩阵表示。【80】使用了Compact Matrix Decomposition(CMD),其可以用来计算给定矩阵的稀疏低秩矩阵。使用CMD对图流中的每个邻接矩阵进行分解,可得到重建值的时间序列,基于重建值序列可进程事件检测,典型应用有COLIBRI, PARCUBE,其中后者在斑点(spotting)异常中的表现更高效。

【84】使用了随机图模型进行基于概率模型的检测,其将真实图邻接矩阵和期望图的邻接矩阵间的差异构造为残差矩阵,对残差矩阵执行SVD,再使用线性Ramp滤波器,基于top奇异值即可进行异常时间窗口检测,通过检查正确的奇异向量来确定相应的顶点。

除以上方法,我们还可以基于分解空间的显著变化来识别事件。【77】通过对数据执行PCA,计算的特征向量可以分为正常和异常两个集合,方法是检验数据中的值映射到特征向量。在每个时间步,根据特征值对特征向量进程降序排列,第一个特征向量则包含一个在其余值的3个标准差之外的投影点,此后的每个特征向量,都构成了异常集。第二步即是将数据映射到正常和异常子空间,一旦完成了这些操作,当从上一个时间步长到当前时间步异常成分的修改超过一个阈值时,即将其视为一个事件。【83】扩展了该方法,提出了联合稀疏PCA和图引导的联合稀疏PCA来定位异常和识别对应的顶点。通过为异常集使用稀疏的成分集,可以更容易识别负责的顶点。顶点根据它们在异常子空间中对应行的值得到一个异常分数,由于异常分量是稀疏的,不异常的顶点得分为0。

图的活跃向量 为主成分,左奇异向量对应最大奇异值,奇异值和奇异向量通过对加权邻接矩阵进行SVD得到。当活跃向量大幅异于“正常活跃"向量时,即定义该时点为突变点,”正常活跃“向量由前序向量得到。

正常活跃向量 ,它是对最后W时间步中活动向量形成的矩阵进行SVD得到的左奇异向量。每个时点都定义一个得分 ,其代表了当前活跃向量与正常向量的差异。异常可以使用动态阈值方案在线发现,其中得分高于阈值的时间点被输出为变化。通过计算正常向量和活动向量之间的变化比率来找到负责的顶点,与变化最大的索引所对应的顶点被标记为异常,类似的方法也可以用于节点-节点相关矩阵的活跃向量,或基于邻居相似度的节点-节点相关矩阵。

基于距离的异常检测算法的不同点在于选择用于提取和比较距离度量,以及它们用于确定异常值和相应图的方法。

如果一些边的属性演化异于正常演化,则该边就是一个异常边。

边之间的权重使用衰减函数定义,在每个时间步长中,根据相似度得分的变化之和计算每条边的异常值得分,使用阈值或简单的 作为异常值标准。

将网络视为边的流,意味着网络没有固定的拓扑,一个边的频率和持久性可以用来作为其新颖性的指标,【48】定义了集合系统不一致性指标来度量频率和持久性,当一条边到达时,计算其差异,并与活动边集的平均不一致性值进行比较,如果边的加权不一致性大于平均不一致性的阈值水平,则声明该边为异常边,基于异常边,可以进一步识别其他异常图元素(如顶点,边,子图)。

具有许多“异常”边的子图即是异常的子图。

【52】将边的权重视为异常得分,每个时间步长上的每条边都有它自己的异常分数,给定了该边权值在所有图序列的分布,该分数表示在该特定的边上看到该特定权值的概率函数。或者,为网络中的边分配异常值分数的现有方法的输出可以用作为该方法的输入。后一种方法允许应用于任何能够为边分配异常值分数的网络,一旦完成每条边的异常打分,即可发现显著异常的区域(SARs),即一个窗口内的固定子图,其类似于HDSs。【112】提出了一种迭代算法,该算法首先固定子图发现最优时间窗口,然后固定时间窗口发现最优子图。【97】拓展了该方法,允许子图渐变,即在相邻时间步间增加或移除顶点。

定义函数 为测度图距离的函数,将其应用于连续图序列,即得到距离序列,基于该距离序列应用一些启发式算法(如基于移动平均阈值的 取值)即可得到异常事件。

称每个顶点及其egonet的特征为局部特征,整张图的特征为全局特征。每个顶点的局部特征可聚合为一个向量,基于该向量的各阶矩可构造signature向量,利用signature向量间的Canberra距离(归一化的曼哈顿距离)可构造图之间的距离函数【93】。【92】利用全局特征,定义了一种基于dK-2序列的距离测度,将高于阈值的特征视为异常点。

【96】使用了顶点亲和度(即一个顶点对另一个顶点的影响,可以用于快速信念传播)得分作为signature向量,其基于连续时间步技术顶点亲和度,基于马氏距离度量两个图的相似度,亲和度得分的变化反应并适应变化的影响水平,例如桥边的移除比正常边移除的得分更高。利用单个移动范围的质量控制,可以对相似度得分的时间序列设置一个移动阈值,如指数移动平均加权。

作为特征相似度的补充,我们也可以比较两个图的结构差异来度量突变的大小,这类方法致力于发现定义距离的函数而非发现特征向量。【88】计算了异常网络的10种距离函数,使用ARMA模型构造特征值的正常模型,然后基于正常模型计算时点的残差,残差超过给定阈值的时间即可标记为异常。10种距离函数中,基于最大共有子图的方法表现最好。【90】使用了五中得分函数(顶点/边重叠,顶点排序,向量相似度,序列相似度,signature相似度)来检测三种异常(子图缺失,顶点缺失,连通性变化),表现最好的方案是抽取每个顶点和边的特征构造signature向量,使用SimHash定义距离。

我们还可以通过计算每个图的稳健性序列来检测事件,稳健性序列是图连通性的测度,具有高稳健性的图即使在去除一些顶点或边的情况下,也能保持相同的一般结构和连通性,事件检测即发现稳健性值异常变化的时点【95】。【89】使用的是图半径的变体作为稳健性指标,图半径的定义是基于所有顶点的平均离心度,而非常用的最大离心度。

基于概率理论、分布、扫描统计学等方法可以构造“正常”样本的模型,偏离该模型的样本即视为异常,这类方法的主要区别在于构造方法、建模对象、离群值定义。

主要有两种方法:一,构造扫描统计时间序列并检测离均值若干标准差的点;二,顶点分类。

扫描统计常称为滑动窗口分析,其在数据的特征区域中发现测度统计量的局部最小或最大值。对某个特定图,扫描统计量可以是图不变特征的最大值,如边的数量。

【8】使用了一个适应测度统计量的变量,即每个节点的0-2度邻居数,然后对每个顶点的局部统计量使用近期值的均值和标准差进行标准化,图的扫描统计量即最大的标准化局部统计量。标准化可以解释每个顶点的历史信息,代表每个顶点的统计量只与自己的历史信息有关而与其他顶点无关。这保证测度的最大变化与变化的绝对量无关而与比例有关。基于扫描统计量标准化时间序列,将序列均值的五个标准差作为异常值。最负责的顶点被确定为为整个图的扫描统计值所选择的顶点。

类似于使用邻居进行扫描统计,我们还可以用Markov随机场(MRF)来发现节点的状态,并通过信念传播算法推断最大似然分配,其中,每个顶点标签取决于其邻居节点。【99】通过发现二部核来检测异常点(即犯),二部核定义为犯与从犯间的交互。利用边的插入或删除只影响局部子图这一事实,它在添加新边时逐步更新模型。在传播矩阵中,一个顶点可以处于三种状态之一:欺诈者、共犯者或诚实者。

边异常检测通常使用计数过程建模,统计上显著异于该模型的边标记为异常边。

【50】用贝叶斯离散时间计数过程来建模顶点间的通信次数(边权重),并根据新图更新模型。基于学习到的计数的分布,对新观测的边进行预测 值计算,基于 值标记异常顶点对。

首先用固定的子图,多重图,累积图来构造预期行为的模型,对模型的偏离可作为子图异常检测的依据。

【104】结合扫描统计量和隐马尔可夫模型(HMM)建模边行为,其使用的局部扫描统计量是基于两种图形状:k-path图和星型图,其将滑动窗口的扫描统计数据与其过去的值进行比较,并使用在线阈值系统识别局部异常,局部异常是所有统计上显著的子图(代表k个路径或恒星)的并集。

另一个建模动态图的方法是基于多重图,其中平行边对应于两个连续时间步顶点间的通信,初始的多重图可分解为多个针对每个时间窗口的叠套子图(TSG),TSG满足两个条件:(1)对于任何两个有共同点的边,首先开始通信的边最后完成通信;(2)存在一个根顶点r,它没有传入的边,并且有一条到TSG中每个顶点的路径。出现概率低的TSG视为异常子图。【102】

累积图即为包含直到当前时点的所有边的图,边权重依据衰减函数定义,通过识别“持久模式”来定义子图的正常行为。该持久模型识别模型如下:首先构造一种图,该图每个边根据时间来加权,然后基于该图迭代抽取最重连接成分来发现。随着累积图的发展,提取的子图将被监控,并将其当前活动与基于最近行为的预期活动进行比较来进行子图异常检测。【101】

事件检测可以基于偏离图似然模型或特征值分布的偏差来进行。

【103】提出了一种新的蓄水池抽样方法来抽取图流的结构摘要,这种在线抽样方法维持多个网络划分以构造统计上显著的摘要,当一个新图进入图流,每个边都根据不同分区的边生成模型计算出一种似然性,然后以这些似然性的几何均值作为全局图似然性。

【98】使用了类似的边生成模型,每个边 的概率都存储在矩阵 中,概率基于期望最大化估计,基于所有收发对的分布,然后为每个收发对给出潜在得分,基于所有边似然得分的均值即得到每个图的得分。

【100】计算了特征值和压缩特征等式的分布(而非计算收发对的分布),基于每个顶点都存在一个顶点局部特征时间序列的假设,可在每个时间步构造一个顶点-顶点相关矩阵,通过保留最大特征值和一组低维矩阵(每个顶点对应一个矩阵),可对相关矩阵的特征方程进行压缩,通过学习特征值和矩阵的分布,即可发现异常顶点和事件。当特征值偏离期望分布时,即认为发生了事件,当顶点的矩阵偏离矩阵分布时,可认为该顶点为异常顶点。

两篇关于时间序列异常检测的论文

我了解更多,选择明白这个道理

人工神经网络概念梳理与实例演示神经网络是一种模仿生物神经元的机器学习模型,数据从输入层进入并流经激活阈值的多个节点。递归性神经网络一种能够对之前输入数据进行内部存储记忆的神经网络,所以他们能够学习到数据流中的时间依赖结构。如今机器学习已经被应用到很多的产品中去了,例如,siri、Google Now等智能助手,推荐引擎——亚马逊网站用于推荐商品的推荐引擎,Google和Facebook使用的广告排名系统。最近,深度学习的一些进步将机器学习带入公众视野:AlphaGo 打败围棋大师李世石事件以及一些图片识别和机器翻译等新产品的出现。在这部分中,我们将介绍一些强大并被普遍使用的机器学习技术。这当然包括一些深度学习以及一些满足现代业务需求传统方法。读完这一系列的文章之后,你就掌握了必要的知识,便可以将具体的机器学习实验应用到你所在的领域当中。随着深层神经网络的精度的提高,语音和图像识别技术的应用吸引了大众的注意力,关于AI和深度学习的研究也变得更加普遍了。但是怎么能够让它进一步扩大影响力,更受欢迎仍然是一个问题。这篇文章的主要内容是:简述前馈神经网络和递归神经网络、怎样搭建一个递归神经网络对时间系列数据进行异常检测。为了让我们的讨论更加具体化,我们将演示一下怎么用Deeplearning4j搭建神经网络。一、什么是神经网络?人工神经网络算法的最初构思是模仿生物神经元。但是这个类比很不可靠。人工神经网络的每一个特征都是对生物神经元的一种折射:每一个节点与激活阈值、触发的连接。连接人工神经元系统建立起来之后,我们就能够对这些系统进行训练,从而让他们学习到数据中的一些模式,学到之后就能执行回归、分类、聚类、预测等功能。人工神经网络可以看作是计算节点的集合。数据通过这些节点进入神经网络的输入层,再通过神经网络的隐藏层直到关于数据的一个结论或者结果出现,这个过程才会停止。神经网络产出的结果会跟预期的结果进行比较,神经网络得出的结果与正确结果的不同点会被用来更正神经网络节点的激活阈值。随着这个过程的不断重复,神经网络的输出结果就会无限靠近预期结果。二、训练过程在搭建一个神经网络系统之前,你必须先了解训练的过程以及网络输出结果是怎么产生的。然而我们并不想过度深入的了解这些方程式,下面是一个简短的介绍。网络的输入节点收到一个数值数组(或许是叫做张量多维度数组)就代表输入数据。例如, 图像中的每个像素可以表示为一个标量,然后将像素传递给一个节点。输入数据将会与神经网络的参数相乘,这个输入数据被扩大还是减小取决于它的重要性,换句话说,取决于这个像素就不会影响神经网络关于整个输入数据的结论。起初这些参数都是随机的,也就是说神经网络在建立初期根本就不了解数据的结构。每个节点的激活函数决定了每个输入节点的输出结果。所以每个节点是否能够被激活取决于它是否接受到足够的刺激强度,即是否输入数据和参数的结果超出了激活阈值的界限。在所谓的密集或完全连接层中,每个节点的输出值都会传递给后续层的节点,在通过所有隐藏层后最终到达输出层,也就是产生输入结果的地方。在输出层, 神经网络得到的最终结论将会跟预期结论进行比较(例如,图片中的这些像素代表一只猫还是狗?)。神经网络猜测的结果与正确结果的计算误差都会被纳入到一个测试集中,神经网络又会利用这些计算误差来不断更新参数,以此来改变图片中不同像素的重要程度。整个过程的目的就是降低输出结果与预期结果的误差,正确地标注出这个图像到底是不是一条狗。深度学习是一个复杂的过程,由于大量的矩阵系数需要被修改所以它就涉及到矩阵代数、衍生品、概率和密集的硬件使用问题,但是用户不需要全部了解这些复杂性。但是,你也应该知道一些基本参数,这将帮助你理解神经网络函数。这其中包括激活函数、优化算法和目标函数(也称为损失、成本或误差函数)。激活函数决定了信号是否以及在多大程度上应该被发送到连接节点。阶梯函数是最常用的激活函数, 如果其输入小于某个阈值就是0,如果其输入大于阈值就是1。节点都会通过阶梯激活函数向连接节点发送一个0或1。优化算法决定了神经网络怎么样学习,以及测试完误差后,权重怎么样被更准确地调整。最常见的优化算法是随机梯度下降法。最后, 成本函数常用来衡量误差,通过对比一个给定训练样本中得出的结果与预期结果的不同来评定神经网络的执行效果。Keras、Deeplearning4j 等开源框架让创建神经网络变得简单。创建神经网络结构时,需要考虑的是怎样将你的数据类型匹配到一个已知的被解决的问题,并且根据你的实际需求来修改现有结构。三、神经网络的类型以及应用神经网络已经被了解和应用了数十年了,但是最近的一些技术趋势才使得深度神经网络变得更加高效。GPUs使得矩阵操作速度更快;分布式计算结构让计算能力大大增强;多个超参数的组合也让迭代的速度提升。所有这些都让训练的速度大大加快,迅速找到适合的结构。随着更大数据集的产生,类似于ImageNet 的大型高质量的标签数据集应运而生。机器学习算法训练的数据越大,那么它的准确性就会越高。最后,随着我们理解能力以及神经网络算法的不断提升,神经网络的准确性在语音识别、机器翻译以及一些机器感知和面向目标的一些任务等方面不断刷新记录。尽管神经网络架构非常的大,但是主要用到的神经网络种类也就是下面的几种。前馈神经网络前馈神经网络包括一个输入层、一个输出层以及一个或多个的隐藏层。前馈神经网络可以做出很好的通用逼近器,并且能够被用来创建通用模型。这种类型的神经网络可用于分类和回归。例如,当使用前馈网络进行分类时,输出层神经元的个数等于类的数量。从概念上讲, 激活了的输出神经元决定了神经网络所预测的类。更准确地说, 每个输出神经元返回一个记录与分类相匹配的概率数,其中概率最高的分类将被选为模型的输出分类。前馈神经网络的优势是简单易用,与其他类型的神经网络相比更简单,并且有一大堆的应用实例。卷积神经网络卷积神经网络和前馈神经网络是非常相似的,至少是数据的传输方式类似。他们结构大致上是模仿了视觉皮层。卷积神经网络通过许多的过滤器。这些过滤器主要集中在一个图像子集、补丁、图块的特征识别上。每一个过滤器都在寻找不同模式的视觉数据,例如,有的可能是找水平线,有的是找对角线,有的是找垂直的。这些线条都被看作是特征,当过滤器经过图像时,他们就会构造出特征图谱来定位各类线是出现在图像的哪些地方。图像中的不同物体,像猫、747s、榨汁机等都会有不同的图像特征,这些图像特征就能使图像完成分类。卷积神经网络在图像识别和语音识别方面是非常的有效的。卷积神经网络与前馈神经网络在图像识别方面的异同比较。虽然这两种网络类型都能够进行图像识别,但是方式却不同。卷积神经网络是通过识别图像的重叠部分,然后学习识别不同部分的特征进行训练;然而,前馈神经网络是在整张图片上进行训练。前馈神经网络总是在图片的某一特殊部分或者方向进行训练,所以当图片的特征出现在其他地方时就不会被识别到,然而卷积神经网络却能够很好的避免这一点。卷积神经网络主要是用于图像、视频、语音、声音识别以及无人驾驶的任务。尽管这篇文章主要是讨论递归神经网络的,但是卷积神经网络在图像识别方面也是非常有效的,所以很有必要了解。递归神经网络与前馈神经网络不同的是,递归神经网络的隐藏层的节点里有内部记忆存储功能,随着输入数据的改变而内部记忆内容不断被更新。递归神经网络的结论都是基于当前的输入和之前存储的数据而得出的。递归神经网络能够充分利用这种内部记忆存储状态处理任意序列的数据,例如时间序列。递归神经网络经常用于手写识别、语音识别、日志分析、欺诈检测和网络安全。递归神经网络是处理时间维度数据集的最好方法,它可以处理以下数据:网络日志和服务器活动、硬件或者是医疗设备的传感器数据、金融交易、电话记录。想要追踪数据在不同阶段的依赖和关联关系需要你了解当前和之前的一些数据状态。尽管我们通过前馈神经网络也可以获取事件,随着时间的推移移动到另外一个事件,这将使我们限制在对事件的依赖中,所以这种方式很不灵活。追踪在时间维度上有长期依赖的数据的更好方法是用内存来储存重要事件,以使近期事件能够被理解和分类。递归神经网络最好的一点就是在它的隐藏层里面有“内存”可以学习到时间依赖特征的重要性。接下来我们将讨论递归神经网络在字符生成器和网络异常检测中的应用。递归神经网络可以检测出不同时间段的依赖特征的能力使得它可以进行时间序列数据的异常检测。递归神经网络的应用网络上有很多使用RNNs生成文本的例子,递归神经网络经过语料库的训练之后,只要输入一个字符,就可以预测下一个字符。下面让我们通过一些实用例子发现更多RNNs的特征。应用一、RNNs用于字符生成递归神经网络经过训练之后可以把英文字符当做成一系列的时间依赖事件。经过训练后它会学习到一个字符经常跟着另外一个字符(“e”经常跟在“h”后面,像在“the、he、she”中)。由于它能预测下一个字符是什么,所以它能有效地减少文本的输入错误。Java是个很有趣的例子,因为它的结构包括很多嵌套结构,有一个开的圆括号必然后面就会有一个闭的,花括号也是同理。他们之间的依赖关系并不会在位置上表现的很明显,因为多个事件之间的关系不是靠所在位置的距离确定的。但是就算是不明确告诉递归神经网络Java中各个事件的依赖关系,它也能自己学习了解到。在异常检测当中,我们要求神经网络能够检测出数据中相似、隐藏的或许是并不明显的模式。就像是一个字符生成器在充分地了解数据的结构后就会生成一个数据的拟像,递归神经网络的异常检测就是在其充分了解数据结构后来判断输入的数据是不是正常。字符生成的例子表明递归神经网络有在不同时间范围内学习到时间依赖关系的能力,它的这种能力还可以用来检测网络活动日志的异常。异常检测能够使文本中的语法错误浮出水面,这是因为我们所写的东西是由语法结构所决定的。同理,网络行为也是有结构的,它也有一个能够被学习的可预测模式。经过在正常网络活动中训练的递归神经网络可以监测到入侵行为,因为这些入侵行为的出现就像是一个句子没有标点符号一样异常。应用二、一个网络异常检测项目的示例假设我们想要了解的网络异常检测就是能够得到硬件故障、应用程序失败、以及入侵的一些信息。模型将会向我们展示什么呢?随着大量的网络活动日志被输入到递归神经网络中去,神经网络就能学习到正常的网络活动应该是什么样子的。当这个被训练的网络被输入新的数据时,它就能偶判断出哪些是正常的活动,哪些是被期待的,哪些是异常的。训练一个神经网络来识别预期行为是有好处的,因为异常数据不多,或者是不能够准确的将异常行为进行分类。我们在正常的数据里进行训练,它就能够在未来的某个时间点提醒我们非正常活动的出现。说句题外话,训练的神经网络并不一定非得识别到特定事情发生的特定时间点(例如,它不知道那个特殊的日子就是周日),但是它一定会发现一些值得我们注意的一些更明显的时间模式和一些可能并不明显的事件之间的联系。我们将概述一下怎么用 Deeplearning4j(一个在JVM上被广泛应用的深度学习开源数据库)来解决这个问题。Deeplearning4j在模型开发过程中提供了很多有用的工具:DataVec是一款为ETL(提取-转化-加载)任务准备模型训练数据的集成工具。正如Sqoop为Hadoop加载数据,DataVec将数据进行清洗、预处理、规范化与标准化之后将数据加载到神经网络。这跟Trifacta’s Wrangler也相似,只不过它更关注二进制数据。开始阶段第一阶段包括典型的大数据任务和ETL:我们需要收集、移动、储存、准备、规范化、矢量话日志。时间跨度的长短是必须被规定好的。数据的转化需要花费一些功夫,这是由于JSON日志、文本日志、还有一些非连续标注模式都必须被识别并且转化为数值数组。DataVec能够帮助进行转化和规范化数据。在开发机器学习训练模型时,数据需要分为训练集和测试集。训练神经网络神经网络的初始训练需要在训练数据集中进行。在第一次训练的时候,你需要调整一些超参数以使模型能够实现在数据中学习。这个过程需要控制在合理的时间内。关于超参数我们将在之后进行讨论。在模型训练的过程中,你应该以降低错误为目标。但是这可能会出现神经网络模型过度拟合的风险。有过度拟合现象出现的模型往往会在训练集中的很高的分数,但是在遇到新的数据时就会得出错误结论。用机器学习的语言来说就是它不够通用化。Deeplearning4J提供正则化的工具和“过早停止”来避免训练过程中的过度拟合。神经网络的训练是最花费时间和耗费硬件的一步。在GPUs上训练能够有效的减少训练时间,尤其是做图像识别的时候。但是额外的硬件设施就带来多余的花销,所以你的深度学习的框架必须能够有效的利用硬件设施。Azure和亚马逊等云服务提供了基于GPU的实例,神经网络还可以在异构集群上进行训练。创建模型Deeplearning4J提供ModelSerializer来保存训练模型。训练模型可以被保存或者是在之后的训练中被使用或更新。在执行异常检测的过程中,日志文件的格式需要与训练模型一致,基于神经网络的输出结果,你将会得到是否当前的活动符合正常网络行为预期的结论。代码示例递归神经网络的结构应该是这样子的:MultiLayerConfiguration conf = new (.seed(123).optimizationAlgo().iterations(1).weightInit().updater().momentum().learningRate().gradientNormalization().gradientNormalizationThreshold().list().layer(0, new ().activation("tanh").nIn(1).nOut(10).build()).layer(1, new ().activation("softmax").nIn(10).nOut(numLabelClasses).build()).pretrain(false).backprop(true).build();MultiLayerNetwork net = new MultiLayerNetwork(conf);();下面解释一下几行重要的代码:.seed(123)随机设置一个种子值对神经网络的权值进行初始化,以此获得一个有复验性的结果。系数通常都是被随机的初始化的,以使我们在调整其他超参数时仍获得一致的结果。我们需要设定一个种子值,让我们在调整和测试的时候能够用这个随机的权值。.optimizationAlgo().iterations(1)决定使用哪个最优算法(在这个例子中是随机梯度下降法)来调整权值以提高误差分数。你可能不需要对这个进行修改。.learningRate()当我们使用随机梯度下降法的时候,误差梯度就被计算出来了。在我们试图将误差值减到最小的过程中,权值也随之变化。SGD给我们一个让误差更小的方向,这个学习效率就决定了我们该在这个方向上迈多大的梯度。如果学习效率太高,你可能是超过了误差最小值;如果太低,你的训练可能将会永远进行。这是一个你需要调整的超参数。

STL 表示基于损失的季节性分解的过程。该技术能够将时间序列信号分解为三个部分: 季节性变化(seasonal)、趋势变化(trend)和剩余部分(residue) 。

顾名思义,这种方法适用于季节性的时间序列,这是比较常见的情况。

这里不太明显的地方是,我们为了得到更可靠的异常检测结果,使用了 绝对中位偏差 。该方法目前最好的实现是 Twitter 的异常检测库 ,它使用了 Generalized Extreme Student Deviation (广义的 ESD 算法)测试残差点是否是一个离群点。

该方法的优点在于其简单性和健壮性。它可以处理很多不同的情况,并且所有的异常情况仍然可以直观解释。

它主要擅长于附加的异常值检测。如果想要检测一些水平变化,则可以对移动平均信号进行分析。

该方法的缺点是在调整选项方面过于死板。你所能做的只有通过显著性水平来调整置信区间。

当信号特征发生了剧烈变化时,该方法就失效了。例如,跟踪原本对公众是关闭状态的,却突然对公众开放的网站用户数量。在这种情况下,就应该分别跟踪在启动开放之前和开放之后发生的异常。

分类回归树(CART)是目前最稳健、最有效的机器学习技术之一。它也可以应用于异常检测问题。

分类树学习的最流行实现是 xgboost 库 。

这种方法的优点是它不受信号结构的任何约束,而且可以引入许多的特征参数进行学习,以获得更为复杂的模型。

该方法的缺点是会出现越来越多的特征,这很快会影响到整体的计算性能。在这种情况下,你应该有意识地选择有效特征。

自回归移动平均模型(ARIMA)是一种设计上非常简单的方法,但其效果足够强大,可以预测信号并发现其中的异常。

该方法的思路是从过去的几个数据点来生成下一个数据点的预测,在过程中添加一些随机变量(通常是添加白噪声)。以此类推,预测得到的数据点可以用来生成新的预测。很明显:它会使得后续预测信号数据更平滑。

使用这种方法最困难的部分是 选择 差异数量、自动回归数量和预测误差系数。

该方法的另一个障碍是信号经过差分后应该是固定的。也就是说,这意味着信号不应该依赖于时间,这是一个比较显著的限制。

异常检测是利用离群点来建立一个经过调整的信号模型,然后利用 t-统计量 来检验该模型是否比原模型能更好的拟合数据。

该方法最受欢迎的实现是 R 语言中的 tsoutliers 包。在这种情况下,你可以找到适合信号的 ARIMA 模型,它可以检测出所有类型的异常。

指数平滑方法与 ARIMA 方法非常相似。基本的指数模型等价于 ARIMA (0, 1, 1) 模型。

从异常检测的角度来看,最有趣的方法是 Holt-Winters 季节性方法 。该方法需要定义季节性周期,比如周、月、年等等。

如果需要跟踪多个季节周期,比如同时跟踪周和年周期,那么应该只选择一个。通常是选择最短的那个:所以这里我们就应该选择周季节。

这显然是该方法的一个缺点,它会大大影响整体的预测范围。

和使用 STL 或 CARTs 方法一样,我们可以通过统计学方法对离群值进行统计来实现异常检测。

与 CART 方法一样, 神经网络 有两种应用方式:监督学习和无监督学习。

我们处理的数据是时间序列,所以最适合的神经网络类型是 LSTM 。如果构建得当,这种循环神经网络将可以建模实现时间序列中最复杂的依赖关系,包括高级的季节性依赖关系。

如果存在多个时间序列相互耦合,该方法也非常 有用 。

力求题目的字数要少,用词需要精选。至于多少字算是合乎要求,并无统一的'硬性'规定,一般希望一篇论文题目不要超出20个字,不过,不能由于一味追求字数少而影响题目对内容的恰当反映,在遇到两者确有矛时,宁可多用几个字也要力求表达明确。常见了繁琐题名如:'关于钢水中所含化学成分的快速分析方法的研究'。在这类题目中,像'关于'、'研究'等词汇如若舍之,并不影响表达。既是论文,总包含有研究及关于什么方面的研究,所以,上述题目便可精炼为:'钢水化学成分的快速分析法'。这样一改,字数便从原21个安减少为12个字,读起来觉得干净利落、简短明了。若简短题名不足以显示论文内容或反映出属于系列研究的性质,则可利用正、副标题的方法解决,以加副标题来补充说明特定的实验材料,方法及内容等信息,使标题成为既充实准确又不流于笼统和一般化。如?quot;(主标题)有源位错群的动力学特性--(副标题)用电子计算机模拟有源位错群的滑移特性'。

时间序列论文答辩

1、自我介绍:自我介绍作为答辩的开场白,包括姓名、学号、专业。介绍时要举止大方、态度从容、面带微笑,礼貌得体的介绍自己。克服紧张、不安、焦躁的情绪,自信自己一定可以顺利通过答辩。2、答辩人陈述自述的主要内容包括论文标题;课题背景、选择此课题的原因及课题现阶段的发展情况;有关课题的具体内容,其中包括答辩人所持的观点看法、研究过程、实验数据、结果;答辩人在此课题中的研究模块、承担的具体工作、解决方案、研究结果。3、提问与答辩答辩教师的提问安排在答辩人自述之后,一般为3个问题,采用由浅入深的顺序提问,采取答辩人当场作答的方式。4、总结答辩人最后纵观答辩全过程,做总结陈述,包括两方面的总结:毕业设计和论文写作的体会;参加答辩的收获。答辩教师也会对答辩人的表现做出点评:成绩、不足、建议。除去以上流程外,答辩还需要注意以下几点:一、提前准备讲稿;二、若学校要求准备演讲PPT,则需提前准备并演练,若学校不作要求,可不准备;三、最好穿正装,以示对老师的尊重。扩展资料毕业答辩中常见的问题:1、自己为什么选择这个课题?2、研究这个课题的意义和目的是什么?3、全文的基本框架、基本结构是如何安排的?4、全文的各部分之间逻辑关系如何?5、在研究本课题的过程中,发现了哪些不同见解?对这些不同的意见,自己是怎样逐步认识的?又是如何处理的?6、论文虽未论及,但与其较密切相关的问题还有哪些?7、还有哪些问题自己还没有搞清楚,在论文中论述得不够透彻?8、写作论文时立论的主要依据是什么?参考资料:百度百科-毕业论文答辩

各位老师:早上好! 我的论文题目是:论《三国演义》的“三复情节”。选这么一个题目,最主要的还是对其新颖的艺术建构产生了共鸣。 《三国演义》作为中国古代第一部长篇章回体小说,研究其“三复”模式对我们领略中国小说的艺术魅力有很大的启发。 “三复情节”理论最早由杜贵晨先生提出。他在其著作《传统文化与古典小说》重点阐述了“三复情节”的含义、剖析了中国古代数字“三”的观念、叙述了古代小说“三复情节”的流变及其美学意义、探讨了《水浒传》“三而一成”的叙事艺术及《儒林外史》的“三复情节”、归纳出了67部通俗小说中含有的97次“三复情节”。 国内学者郑铁生在《三国演义的叙事艺术》提到了“以三为法”的叙事结构,美国著名汉学家浦安迪其所著的《中国叙事学》中提到《三国演义》有一个突出的次结构特点是经常运用定数序列事件,其数字序列的基础经常是“三”,实际上他的这种说法类似“三复情节”他的另一本著作《明代小说四大奇书》也提到一点:说是不少三国戏和说书段落都以某一件事三次发生为基本图式--如“三让徐州”、“三勘吉平”、“三顾茅庐”、“三气周瑜”等。 在论文方面,张文在厦门教育学院院报上发表了《浅论聊斋志异的“三复情节”》;梁雁在泰安师专学报上发表了《论红楼梦的“三复情节”》,刘福泉,王新玲在河北大学学报上发表了《中国传统文化中的“尚三”理论对巴金家.春.秋创作的影响》等,都较详细的研究了我国一些名著的“三复情节”,而唯独《三国演义》是个例外,故尔学生不揣浅陋,便动笔写起了《三国演义》的“三复情节”来。 “三复情节”是中国古代小说一种耐人寻味的模式,一个突出的美学现象。《三国演义》“三复情节”的运用是十分成熟的。 我主要是从以下几个方面来写《三国演义》“三复情节”的: 一、何为“三复情节” 首先介绍“三复”一词的出处,它最先见于《论语.先进》:“南容三复白圭。然后解释“三复”所表示的意义;再讲“情节”的定义:它是指事件的形成系列或语义系列;最后借鉴杜贵晨先生的定义,概括为:“三复情节”即指“叙事作品写人物做一件事经三次重复才能完成的情节设计。其特点为:同一施动人向同一对象作三次重复的动作,取得预期效果;每一重复都是情节的层进,从而整个过程表现为起--中--结的形态。” 二、《三国演义》中的“三复情节”分类研究 (一)“明写”型“三复情节” 即“三复情节”置于明处。“三复情节”置于明处的标志是数字“三”出现于回目,读者可以一目了然地看出来。明写又表现在两个方面:“连写”式和“断续”式。“连写”与“断续”取自毛宗岗点评《三国演义》结构时注意到的序列事件。如七擒孟获是连写,而三气周瑜乃断续。 1.“连写”式的典型例子是“刘玄德三顾茅庐”,刘备三人一连三次拜访孔明。在一回书里把这么一个事件连续不间断叙写完毕。 2.“断续”式的典型例子是“孔明三气周公瑾”,一气在第五十一回,二气在第五十五回,三气在第五十六回,三回叙一事,堪称断续之典范。 (二)“暗写”型“三复情节” 主要是指“三复情节”隐藏在文中而不是直接出现于回目处,一般不太明显,仔细读来方可发觉。 1.以淡化数字痕迹来叙写“三复情节” 作者不用一、二、三标明所重复的次数,第五十三回写“关云长义释黄汉升”,内中有“黄忠三射关云长”的情节片段,说的是攻打长沙的时候黄忠因被战马掀翻在地,云长义释之。黄忠为报不杀之恩,接连虚拽弓弦,只字未提“第一、二、三次如何”,却把“三复情节”写的惊心动魄。 2.以时间序列来表现“三复情节” 张飞在葭萌关大战马超,也是用了“午后”、“歇马片时”、“夜战”三个时间名词。便代替了一次、二次、三次刀光剑影的鏖战。 3.以数字“三”总括一件事完成的状态的“三复情节” 我自己认为,这是一种特殊的“三复情节”。它只用数字“三”来总括一件事完成的状态,这件事的过程被写作者省去了。 如“操先令许禇、曹仁、典韦领三百骑,于傕阵中冲突三遭,方才布阵。”[4]P66这便是典型的省略了发展过程的“三复情节”,第一遭、第二遭、第三遭是如何冲突的,是一个悬念式的情节。毕竟它写的是 文学 艺术,我们完全可以大胆想象,这无碍大局。如果作者换一种说法叫“许典曹三突傕阵”,用回目标示出来,再大些特写这三次冲阵是怎么的激烈,如何的精彩,也未尝不可。 这类例子在《三国演义》中有很多。 三、《三国演义》“三复情节”的成因 分表层原因和深层原因两个方面。 1.表层原因:主要是指《三国演义》“三复情节”源自三国史书、平话小说及“三国戏”,例如史书:《蜀书.诸葛亮传》载:“先主遂诣亮,凡三往,乃见。”就这么一句话,这便是“三顾茅庐”的最初源头。“三往”经过艺术加工,便成就了一个经典的“三复情节”--“三顾茅庐”。 2.深层原因:说起来只一句话。即“三复情节”的关键在于一个“三”字,这个中华民族自古崇尚的数字在中国传统文化 心理 中占据着十分重要的位置。古人认为“三”是“自然之始祖,万殊之大宗。《老子》曰:“道生一,一生二,二生三,三生万物。”在漫长的发展过程中,它渐次由一个哲学基数发展成为礼数,最终衍变成了中国人行动原则的一个定数。那便是讲究“礼以三为成”,古代臣礼呼万岁曰:“万岁万岁万万岁。”重复三遍。思考问题讲的是“爱扬而后行”。喝酒要“三巡”。等等。在文本中反映出来,便奠定了中国“礼以三为成”的文化传统,成为了中国作家们不可忽视或省略的一个文化现象。典型的有《弟子规》、《三字经》都尚三字一句。在文本中的情节构思上也讲究“三次成一事”。

下面是我整理的关于论文答辩申请导师意见,欢迎阅读参考。

论文答辩申请导师意见【1】

该生认真系统的学习了时间序列的理论和方法,查阅大量文献,在论文写作过程中虚心听取指导教师的意见。

论文内容充实,层次结构合理科学,格式规范,语言表达清楚、流畅。

达到本科生毕业论文水平。

同意参加答辩。

论文答辩申请导师意见【2】

该课题选题新颖,紧密结合临床,设计合理,属于本学科研究热点,研究工作具有一定的理论意义与实际价值。

论文的内容与题目基本相符,结构完整,格式规范,层次清楚,条理分明,语言通顺流畅,内容丰富。

文献材料收集丰富详实,基本涵盖了本学科相关的主要文献,并对本学科发展趋势有一定的.归纳作用。

数据资料充分,论述过程严谨,思路清晰,综合运用了所学知识解决问题,分析方法选用得当,结果可信。

论文撰写严肃认真,推理符合逻辑,结论和建议具有现实意义,是一篇有较高学术价值的硕士生论文。

该论文反映出了作者在本门学科方面坚实的理论基础、系统的专业知识以及良好的科研能力。

达到了硕士学位论文的要求,建议安排答辩。

论文答辩申请导师意见【3】

xxx同学的学位论文《基于数据挖掘的高校本科专业设置预测系统数据模型的分析和研究》选题于教育部委托中山大学开展的高校本科专业设置预测系统项目。

该论文研究成果对于构建高校本科专业设置预测系统具有一定的先导性意义。

本文主要围绕着高校本科专业设置预测系统的数据模型这个问题展开分析和研究。

论文首先对已有的专业设置数据模型进行综述,分析其在功能性、预测性、分析性以及挖掘性方面的不足之处,然后结合高校本科专业设置的实际需求,引入数据挖掘技术、数据仓库和OLAP,构建基于数据挖掘的高校本科专业设置预测系统的数据模型。

总的来说,论文框架清晰,逻辑严谨,行文体现了自己的学术思考及思辨结论,有自己的创见。

本文的写作符合硕士研究生毕业论文规范,学术水准较好,体现了两年学习的成果,可进入答辩程序。

论文长于思辨和综合,而短于对实际需求和现实情况的考量,比如各用户对于专业设置的需求以及数据挖掘中数据的可采集性及可用性等。

建议今后在相关研究中采取更广泛视角。

时间序列论文格式

传统时间序列聚类的缺点: 1)时间序列聚类的研究一般采用等长划分,会丢失重要特征点,对聚类结果有负面影响。 2)采用时间序列测量值不能准确度量相似度。 如下埃博拉出血热、卫生部在数值上很相似,但教育部和卫生部在形状更相似。若是以形状作为度量传统的欧氏距离可能就不太合适了。 不等长时间序列滑窗STS聚类算法: 1)通过标准分数z_score预处理,消除时间序列观测值数量级差异的影响。 2)更改了相似度计算的方式,采用基于滑窗的方法计算不等长序列的距离。 3)采用类k-means的聚类算法的中心曲线计算方法。 时间序列数据因其趋势信息的直观展现形式,广泛应用于社交网络、互联网搜索和新闻媒体数据分析中。例如:Google应用搜索流感的相关信息的时间序列预测流感爆发趋势。根据某话题热度时间序列数据趋势的规律性,通过聚类区分不同类型的时间序列数据。同一类簇的Twitter话题具有相同或相似的发展趋势,进而应用于话题的发展趋势的预测。 时间序列聚类算法可以分为两类。 1)基于原始数据的时间序列聚类算法。 2)基于特征的时间序列聚类算法。 基于特征的时间序列聚类算法指根据原始数据从时间序列中提取形态特征(极值点位置、分段斜率)、结构特征(平均值、方差等统计值特征)、模型特征(模型的预测值),从而根据这些特征值进行聚类。这类方法的优点解决了不等长时间序列聚类问题,缺点是减弱了原始数据值得影响,聚类的形状趋势信息往往比较粗糙。 3. HOW 一、距离度量公式 STS距离计算的是累加时间序列间每个时间间隔斜率差的平方,公式 如上图所示,g1、g2和g2、g3的欧式距离的数值更相近。g1、g2的STS距离大于g2、g3的数值。在形状距离上,STS距离计算方式表现更好,一定程度上可以解决欧式距离度量时间序列局部特征信息确实和受观测数值数量级差异影响大的问题,但是依旧无法度量不等长时间序列的距离。 基于滑窗的STS距离公式。 如上图所示,当计算不同长度的时间序列的s和r的距离时,先不断平移时间序列s,然后找到s和r距离最近的字段,就如同上图虚线之间的位置,此时s和r距离最近,这个最近距离作为s和r之间的距离。 二、预处理过程 z-score标准分数用数据观测值和观测值平均值的距离代替原观测值。z-score处理后的数据平均值为0,标准差为1。标准差的作用是统一量纲,去除数值的数量级差异影响。 总结 本论文提出了形状距离的不等长时间序列的聚类方法。我们可以学到的有 1)z-score统一量纲,消除数值数量级差异,聚类效果更好。 2)计算x和y时间序列的STS距离,可以平移其中一个时间序列,求最小值作为STS距离值,这就消除了同一时间序列不同起始点的影响。

曹刿论战、唇亡齿寒,都是春秋时的事情。蔡桓公是前400~前357年,齐威王是前378~前320年。所以我认为扁鹊见蔡桓公应在邹忌讽齐王纳谏之前。南辕北辙不好判断,但它出自《战国策•魏策四》,所以也归在战国里。马谡失街亭是三国时候的事。

一)时间序列分析简介 二)季节分解法 三)专家建模法 一、时间序列分析简介 时间序列就是按时间顺序排列的一组数据序列。 时间序列分析就是发现这组数据的变动规律并用于预测的统计技术。 时间序列分析有三个基本特点: 1)假设事物发展趋势会延伸到未来 2)预测所依据的数据具有不规则性 3)不考虑事物发展之间的因果关系 目的:通过分析序列进行合理预测,做到提前掌握未来的发展趋势,为业务决策提供依据,这也是决策科学化的前提。并不是所有的时间序列都一定包含四种因素,如以年为单位的诗句就可能不包含季节变动因素。 四种因素通常有两种组合方式。 1)四种因素相互独立,即时间序列是四种因素直接叠加而成的,可用加法模型表示。    Y=T+S+C+I 2)四种因素相互影响。即时间序列是四种因素相互综合的结果,可用乘法模型表示。    Y=T*S*C*I 其中,原始时间序列值和长期趋势可用绝对数表示; 季节变动、循环变动、不规则变动可用相对数(变动百分比)表示。 二、季节分解法 当我们对一个时间序列进行预测时,应该考虑将上述四种因素从时间序列中分解出来。 为什么要分解这四种因素? 1)分解之后,能够克服其他因素的影响,仅仅考量一种因素对时间序列的影响。 2)分解之后,也可以分析他们之间的相互作用,以及他们对时间序列的综合影响。 3)当去掉这些因素后,就可以更好的进行时间序列之间的比较,从而更加客观的反映事物变化发展规律。 4)分界之后,序列可以用来建立回归模型,从而提高预测精度。 所有的时间序列都要分解这四种因素吗? 通常情况下,我们考虑进行季节因素的分解,也就是将季节变动因素从原时间序列中去除,并生成由剩余三种因素构成的序列来满足后续分析需求。 为什么只进行季节因素的分解? 1)时间序列中的长期趋势反映了事物发展规律,是重点研究的对象; 2)循环变动由于周期长,可以看做是长期趋势的反映; 3)不规则变动由于不容易测量,通常也不单独分析。 4)季节变动有时会让预测模型误判其为不规则变动,从而降低模型的预测精度 综上所述:当一个时间序列具有季节变动特征时,在预测值钱会先将季节因素进行分解。 步骤: 1、定义日期标示变量 即先将序列的时间定义好,才能分析其时间特征。 2、了解序列发展趋势 即序列图,确定乘性还是加性 3、进行季节因素分解 4、建模 5、分析结果解读 6、预测 1、定义日期标示变量 时间序列的特点就是数据根据时间点的顺序进行排列,因此分析之前,SPSS需要知道序列的时间定义,然后才能进行分析时间特征。根据源数据的格式进行选择,并输入第一个个案的具体数值。此时会在源文件中生成三个新的变量。 2、了解序列发展趋势 完成日期标示变量的定义之后,需要先对时间序列的变化趋势有所了解,便于选择合适的模型。即通过序列图,确定模型是乘性还是加性。变量为”销售数据“,时间轴标签为”DATE--“,也就是我们自定义的时间。 数据销量序列图 如何根据序列图来判断模型的乘性或加性? 1)如果随着时间的推移,序列的季节波动变得越来越大,则建议使用乘法模型。 2)如果序列的季节波动能够基本维持恒定,则建议使用加法模型。 本例很明显:随着时间变化,销售数据的季节波动越来越大,那么使用乘法模型会更精确。 3、进行季节因素分解变量为”销售数据“,且根据序列图我们知道时间序列模型为乘性。提示您会新生成四个变量1)ERR(误差序列) 从时间序列中移除季节因素、长期趋势、和循环变动之后留下的序列,也就是原始序列中的不规则变动构成的序列。 2)SAS(季节因素校正后序列):是移除原始序列中的季节因素后的校正序列。 3)SAF(季节因子):是从序列中分解出的季节因素。其中的变量值根据季节周期的变动进行重复,如本例中季节周期为12个月,所以这些季节因子没12个月重复一次。 4)STC(长期趋势和循环变动趋势):这是原始序列中长期趋势和循环变动构成的序列。 如图,周期为12个月,季节因子12个月循环一次。 完成季节因素分解后的序列和原始序列之间有什么差异? 通过回执序列图的方法把原始序列和除去季节因子的三个序列(误差序列、季节因素校正后序列、长期无视和循环变动序列)进行比较。要做四个序列图,会有四个变量 原始序列:使用变量”销售数据“; 误差序列:使用变量”ERR“; 季节因素校场后序列:使用变量”SAS“ 长期趋势和循环变动序列:使用变量”STC“蓝色线:原始序列 紫色线:长期趋势和循环变动序列 浅棕色:季节因素校正后序列 绿色线:误差序列(不规则变动) 因为误差序列数值非常小,所以长期趋势和循环变动序列(长期趋势+循环变动)与季节因素校正后序列(长期趋势+循环变动+不规则变动,即误差)能够基本重合。 在单独做”季节因子SAF“的序列图因为是做”季节因子“的序列图,所以只有一个变量”季节因子SAF“我们看出:季节因素的周期是12个月,先下降,然后上升到第一个顶点,再有略微的下降后,出现明显的上升趋势,到第七个月时达到峰值,然后一路下跌,直到最后一个月份有所回升,之后进入第二个循环周期。 通过对原始序列的季节分解,我们更好的掌握了原始序列所包含的时间特征,从而选用适当的模型进行预测。 三、专家建模法 时间序列的预测步骤有四步: 1)绘制时间序列图观察趋势 2)分析序列平稳性并进行平稳化 3)书剑序列建模分析 4)模型评估与预测 平稳性主要是指时间序列的所有统计性质都不会随着时间的推移而发生变化。 对于一个平稳的时间序列,具备以下特征: 1)均数和方差不随时间变化 2)自相关系数只与时间间隔有关,与所处的时间无关 自相关系数是研究序列中不同时期的相关系数,也就是对时间序列计算其当前和不同滞后期的一系列相关系数。 平稳化的方法----差分 差分就是指序列中相邻的两期数据之差。 一次差分=Yt-Yt-1 二次差分=(Yt-Yt-1)-(Yt-1-Yt-2) 具体的平稳化操作过程会有专家建模法自动处理,我们只需要哼根据模型结果独处序列经过了几阶差分即可。 时间序列分析操作:要分析所有变量,所以选择”销售数据“ 【专家建模器】--【条件】,勾选”专家建模器考虑季节性模型“勾选”预测值“,目的是生成预测值,并保存模型 时间序列分析结果解读该表显示了经过分析得到的最优时间序列模型及其参数,最优时间U型猎魔性为ARIMA(0,1,1)(0,1,1) 求和自回归移动平均模型ARIMA(p,d,q)(P,D,Q) p:出去季节性变化之后的序列所滞后的p期,通常为0或1,大于1的情况很少; d:除去季节性变化之后的序列进行了d阶差分,通常取值为0,1或2; q:除去季节性变化之后的序列进行了q次移动平均,通常取值0或1,很少会超过2; P,D,Q分别表示包含季节性变化的序列所做的事情。 因此本例可解读为: 对除去季节性变化的序列和包含季节性变化的序列分别进行了一阶差分和一次移动平均,综合两个模型而建立出来的时间序列模型。该表主要通过R方或平稳R方来评估模型拟合度,以及在多个模型时,通过比较统计量找到最优模型。 由于原始变量具有季节性变动因素,所以平稳的R方更具有参考意义,等于,拟合效果一般。该表提供了更多的统计量可以用来评估时间序列模型的拟合效果。 虽然平稳R方仅仅是,但是”杨-博克斯Q(18)“统计量的显著性P=,大于(此处P>是期望得到的结果),所以接受原假设,认为这个序列的残差符合随机分布,同时没有离群值出现,也都反映出数据的拟合效果还可以接受。 时间序列应用预测:未来一年是到2016年12月,手动输入即可这是未来一年的销售趋势 如果想从全局来观察预测趋势,可以在把这一年的趋势和以前的数据连接起来此时的变量应该是”原始的销售数量“和”2016年的预测销售数量“也可以在表中查看具体的数值

排序为 曹刿论战 唇亡齿寒 < 扁鹊见蔡桓公 < 邹忌讽齐王纳谏 南辕北辙<马谡失街亭 有些是名著的故事,有些是历史真事,具体有些时间不完全能考证出来,具体如下曹刿论战 出自《左传·庄公十年》, 春秋时期早期邹忌讽齐王纳谏 出自《战国策·齐策一》 战国时期扁鹊见蔡桓公节 选自韩非子·喻老 春秋时期晚期马谡失街亭 是三国时期诸葛亮北伐的其中一场战事 三国时期唇亡齿寒, 出自《左传·僖公五年》 春秋时期早期南辕北辙 出自《战国策·魏策四》 战国时期

基于时间序列的毕业论文选题

***统计方法的应用

论文的摘要是对整篇论文的归纳和总结,摘要里要表现出你的首要观念,简略归纳你的证明进程,写出你的首要定论,最佳列出你的论文的立异点,让读者对整篇论文有大致了解。我给你一篇自个写的。助人为乐。

我给你分享几个统计学与应用这本期刊的题目吧,你参考参考:产业集聚对江苏省制造业全要素生产率的影响研究、基于文献计量分析的企业论文发表情况评价——以宁波市安全生产协会会员为例、基于泰尔指数的城乡收入差距的分析与预测、卡方分布下FSI CUSUM和VSI CUSUM控制图的比较、新冠肺炎疫情对中国旅游业的冲击影响研究——基于修正的TGARCH-M模型

时代金融摘 要:关键词:一、 引言一个国家的国民经济有很多因素构成, 省区经济则是我国国民经济的重要组成部分, 很多研究文献都认为中国的省区经济是宏观经济的一个相对独立的研究对象, 因此, 选取省区经济数据进行区域经济的研究, 无疑将是未来几年的研究趋势。而省区经济对我国国民经济的影响, 已从背后走到了台前, 发展较快的省区对我国国民经济的快速增长起到了很大的作用, 而发展相对较慢的省区, 其原因与解决方法也值得我们研究。本文选取华中大省湖北省进行研究, 具有一定的指导和现实意义。湖北省 2006 年 GDP 为 7497 亿元, 人均 GDP13130 元, 达到中等发达国家水平。从省域经济来说, 湖北省是一个较发达的经济实体。另一方面, 湖北省优势的地理位置和众多的人口使之对于我国整体经济的运行起到不可忽视的作用, 对于湖北省 GDP的研究和预测也就从一个侧面反映我国国民经济的走势和未来。尽管湖北省以其重要位置和经济实力在我国国民经济中占据一席之地, 但仍不可避免的面临着建国以来一再的经济波动,从最初的强大势力到如今的挣扎期, 湖北省的经济面临着发展困境。近年来, 湖北省的经济状况一再呈现再次快速发展的趋势, 但是这个趋势能够保持多久却是我们需要考虑的问题。本文选择了时间序列分析的方法进行湖北省区域经济发展的预测。时间序列预测是通过对预测目标自身时间序列的处理来研究其变化趋势的。即通过时间序列的历史数据揭示现象随时间变化的规律, 将这种规律延伸到未来, 从而对该现象的未来作出预测。二、 基本模型、 数据选择以及实证方法( 一) 基本模型ARMA 模型是一种常用的随机时序模型, 由博克斯, 詹金斯创立, 是一种精度较高的时序短期预测方法, 其基本思想是: 某些时间序列是依赖于时间 t 的一组随机变量, 构成该时序的单个序列值虽然具有不确定性, 但整个序列的变化却具有一定的规律性, 可以用相应的数学模型近似描述。通过对该数学模型的分析,能够更本质的认识时间序列的结构与特征, 达到最小方差意义下的最优预测。现实社会中, 我们常常运用 ARMA模型对经济体进行预测和研究, 得到较为满意的效果。但 ARMA模型只适用于平稳的时间序列, 对于如 GDP 等非平稳的时间序列而言, ARMA模型存在一定的缺陷, 因此我们引入一般情况下的 ARMA模型 ( ARIMA模型) 进行实证研究。事实上, ARIMA模型的实质就是差分运算与 ARMA模型的组合。 本文讨论的求和自回归移动平均模型, 简记为 ARIMA ( p, d, q) 模型,是美国统计学家 和 enkins 于 1970 年首次提出, 广泛应用于各类时间序列数据分析, 是一种预测精度相当高的短期预测方法。建立 ARIMA ( p, d, q) 模型计算复杂, 须借助计算机完成。本文介绍 ARIMA ( p, d, q) 模型的建立方法, 并利用Eviews 软件建立湖北省 GDP 变化的 ARIMA ( p, d, q) 预测模型。( 二) 数据选择1.本文所有 GDP 数据来自于由中华人民共和国统计局汇编,中国统计出版社出版的 《新中国五十五年统计数据汇编》 。2.本文的所有数据处理均使用 软件进行。( 三) 实证方法ARMA模型及 ARIMA模型都是在平稳时间序列基础上建立的, 因此时间序列的平稳性是建模的重要前提。任何非平稳时间序列只要通过适当阶数的差分运算或者是对数差分运算就可以实现平稳, 因此可以对差分后或对数差分后的序列进行 ARMA( p, q) 拟合。ARIMA ( p, d, q) 模型的具体建模步骤如下:1.平稳性检验。一般通过时间序列的散点图或折线图对序列进行初步的平稳性判断, 并采用 ADF 单位根检验来精确判断该序列的平稳性。对非平稳的时间序列, 如果存在一定的增长或下降趋势等,则需要对数据取对数或进行差分处理, 然后判断经处理后序列的平稳性。重复以上过程, 直至成为平稳序列。此时差分的次数即为ARIMA ( p, d, q) 模型中的阶数 d。为了保证信息的准确, 应注意避免过度差分。对平稳序列还需要进行纯随机性检验 ( 白噪声检验) 。白噪声序列没有分析的必要, 对于平稳的非白噪声序列则可以进行ARMA ( p, q) 模型的拟合。白噪声检验通常使用 Q 统计量对序列进行卡方检验, 可以以直观的方法直接观测得到结论。拟合。首先计算时间序列样本的自相关系数和偏自相关系的值, 根据自相关系数和偏自相关系数的性质估计自相关阶数 p 和移动平均阶数 q 的值。一般而言, 由于样本的随机性, 样本的相关系数不会呈现出理论截尾的完美情况, 本应截尾的相关系数仍会呈现出小值振荡的情况。又由于平稳时间序列通常都具有短期相性, 随着延迟阶数的增大, 相关系数都会衰减至零值附近作小值波动。根据 Barlett 和 Quenouille 的证明, 样本相关系数近似服从正态分布。一个正态分布的随机变量在任意方向上超出 2σ 的概率约为 。因此可通过自相关和偏自相关估计值序列的直方图来大致判断在 5%的显著水平下模型的自相关系数和偏自相关系数不为零的个数, 进而大致判断序列应选择的具体模型形式。同时对模型中的 p 和 q 两个参数进行多种组合选择, 从 ARMA ( p,q) 模型中选择一个拟和最好的曲线作为最后的方程结果。一般利用 AIC 准则和 SC 准则评判拟合模型的相对优劣。3.模型检验。模型检验主要是检验模型对原时间序列的拟和效果, 检验整个模型对信息的提取是否充分, 即检验残差序列是否为白噪声序列。如果拟合模型通不过检验, 即残差序列不是为白噪声序列, 那么要重新选择模型进行拟合。如残差序列是白噪声序列, 就认为拟合模型是有效的。模型的有效性检验仍然是使谭诗璟ARIMA 模型在湖北省GDP 预测中的应用—— —时间序列分析在中国区域经济增长中的实证分析本文介绍求和自回归移动平均模型 ARIMA ( p, d, q) 的建模方法及 Eviews 实现。广泛求证和搜集从 1952 年到 2006 年以来湖北省 GDP 的相关数据, 运用统计学和计量经济学原理, 从时间序列的定义出发, 结合统计软件 EVIEWS 运用 ARMA建模方法, 将 ARIMA模型应用于湖北省历年 GDP 数据的分析与预测, 得到较为满意的结果。湖北省 区域经济学 ARIMA 时间序列 GDP 预测理论探讨262008/01 总第 360 期图四 取对数后自相关与偏自相关图图三 二阶差分后自相关与偏自相关图用上述 Q 统计量对残差序列进行卡方检验。4.模型预测。根据检验和比较的结果, 使用 Eviews 软件中的forecas t 功能对模型进行预测, 得到原时间序列的将来走势。 对比预测值与实际值, 同样可以以直观的方式得到模型的准确性。三、 实证结果分析GDP 受经济基础、 人口增长、 资源、 科技、 环境等诸多因素的影响, 这些因素之间又有着错综复杂的关系, 运用结构性的因果模型分析和预测 GDP 往往比较困难。我们将历年的 GDP 作为时间序列, 得出其变化规律, 建立预测模型。本文对 1952 至 2006 年的 55 个年度国内生产总值数据进行了分析, 为了对模型的正确性进行一定程度的检验, 现用前 50 个数据参与建模, 并用后五年的数据检验拟合效果。最后进行 2007年与 2008 年的预测。( 一) 数据的平稳化分析与处理1.差分。利用 EViews 软件对原 GDP 序列进行一阶差分得到图二:对该序列采用包含常数项和趋势项的模型进行 ADF 单位根检验。结果如下:由于该序列依然非平稳性, 因此需要再次进行差分, 得到如图三所式的折线图。根据一阶差分时所得 AIC 最小值, 确定滞后阶数为 1。然后对二阶差分进行 ADF 检验:结果表明二阶差分后的序列具有平稳性, 因此 ARIMA ( p, d,q) 的差分阶数 d=2。二阶差分后的自相关与偏自相关图如下:2.对数。利用 EViews 软件, 对原数据取对数:对已经形成的对数序列进行一阶差分, 然后进行 ADF 检验:由上表可见, 现在的对数一阶差分序列是平稳的, 由 AIC 和SC 的最小值可以确定此时的滞后阶数为 2。 因为是进行了一阶差分, 因此认为 ARIMA ( p, d, q) 中 d=1。( 二) ARMA ( p, q) 模型的建立ARMA ( p, q) 模型的识别与定阶可以通过样本的自相关与偏自相关函数的观察获得。图一 1952- 2001 湖北省 GDP 序列图表 1 一阶差分的 ADF 检验ADF t- Statistic 1% level 5% level 10% level AIC 备注0 - - - - 非平稳1 - - - - - - - - - - - - - - - - 表 2 二阶差分的 ADF 检验Lag Length t- Statistic 1% level 5% level 10% level1 (Fixed) - - - - 表 3 对数一阶差分的 ADF 检验ADF t- Statistic 1% level 5% level 10% level AIC SC 备注0 - - - - - - 平稳 1 - - - - - - - - - - - - - - - - - - 图五 对数后一阶差分自相关与偏自相关图理论探讨27时代金融摘 要:关键词:使用 EViews 软件对 AR, MA的取值进行实现, 比较三种情况下方程的 AIC 值和 SC 值:表 4ARMA模型的比较由表 4 可知, 最优情况本应该在 AR ( 1) , MA ( 1) 时取得, 但AR, MA都取 1 时无法实现平稳, 舍去。对于后面两种情况进行比较, 而 P=1 时 AIC 与 SC 值都比较小, 在该种情况下方程如下:综上所述选用 ARIMA ( 1, 1, 0) 模型。( 三) 模型的检验对模型的 Q 统计量进行白噪声检验, 得出残差序列相互独立的概率很大, 故不能拒绝序列相互独立的原假设, 检验通过。模型均值及自相关系数的估计都通过显著性检验, 模型通过残差自相关检验, 可以用来预测。( 四) 模型的预测我们使用时间序列分析的方法对湖北省地方生产总值的年度数据序列建立自回归预测模型, 并利用模型对 2002 到 2006 年的数值进行预测和对照:表 5 ARIMA ( 1, 1, 0) 预测值与实际值的比较由上表可见, 该模型在短期内预测比较准确, 平均绝对误差为 , 但随着预测期的延长, 预测误差可能会出现逐渐增大的情况。下面, 我们对湖北省 2007 年与 2008 年的地方总产值进行预测:在 ARIMA模型的预测中, 湖北省的地方生产将保持增长的势头, 但 2008 年的增长率不如 2007 年, 这一点值得注意。GDP毕竟与很多因素有关, 虽然我们一致认为, 作为我国首次主办奥运的一年, 2008 将是中国经济的高涨期, 但是是否所有的地方产值都将受到奥运的好的影响呢? 也许在 2008 年全国的 GDP 也许确实将有大幅度的提高, 但这有很大一部分是奥运赛场所在地带来的经济效应, 而不是所有地方都能够享有的。正如 GDP 数据显示, 1998 年尽管全国经济依然保持了一个比较好的态势, 但湖北省的经济却因洪水遭受不小的损失。作为一个大省, 湖北省理应对自身的发展承担起更多的责任。总的来说, ARIMA模型从定量的角度反映了一定的问题, 做出了较为精确的预测, 尽管不能完全代表现实, 我们仍能以ARIMA模型为基础, 对将来的发展作出预先解决方案, 进一步提高经济发展, 减少不必要的损失。四、结语时间序列预测法是一种重要的预测方法, 其模型比较简单,对资料的要求比较单一, 在实际中有着广泛的适用性。在应用中,应根据所要解决的问题及问题的特点等方面来综合考虑并选择相对最优的模型。在实际运用中, 由于 GDP 的特殊性, ARIMA模型以自身的特点成为了 GDP 预测上佳选择, 但是预测只是估计量, 真正精确的还是真实值, 当然, ARIMA 模型作为一般情况下的 ARMA 模型, 运用了差分、取对数等等计算方法, 最终得到进行预测的时间序列, 无论是在预测上, 还是在数量经济上, 都是不小的进步, 也为将来的发展做出了很大的贡献。我们通过对湖北省地方总产值的实证分析, 拟合 ARIMA( 1, 1, 0) 模型, 并运用该模型对湖北省的经济进行了小规模的预测,得到了较为满意的拟和结果, 但湖北省 2007 年与 2008 年经济预测中出现的增长率下降的问题值得思考, 究竟是什么原因造成了这样的结果, 同时我们也需要到 2008 年再次进行比较, 以此来再次确定 ARIMA ( 1, 1, 0) 模型在湖北省地方总产值预测中所起到的作用。参考文献:【1】易丹辉 数据分析与 EViews应用 中国统计出版社【2】 Philip Hans Frances 商业和经济预测中的时间序列模型 中国人民大学出版社【3】新中国五十五年统计资料汇编 中国统计出版社【4】赵蕾 陈美英 ARIMA 模型在福建省 GDP 预测中的应用 科技和产业( 2007) 01- 0045- 04【5】 张卫国 以 ARIMA 模型估计 2003 年山东 GDP 增长速度 东岳论丛( 2004) 01- 0079- 03【6】刘盛佳 湖北省区域经济发展分析 华中师范大学学报 ( 2003) 03-0405- 06【7】王丽娜 肖冬荣 基于 ARMA 模型的经济非平稳时间序列的预测分析武汉理工大学学报 2004 年 2 月【8】陈昀 贺远琼 外商直接投资对武汉区域经济的影响分析 科技进步与对策 ( 2006) 03- 0092- 02( 作者单位: 武汉大学经济与管理学院金融工程)AR(1)MA(1) AR(1) MA(1) 备注AIC - - - 最优为 AR(1)MA(1)SC - - - Coefficient Std. Error t- Statistic (1) squared - Mean dependent var R- squared - . dependent var . of regression Akaike info criterion - resid Schwarz criterion - likelihood Durbin-Watson stat AR Roots .59年份 实际值 预测值 相对误差(%) 平均误差(%)2002 - - - - - 年度 GDP 值 增长率(%) — 表 6 ARIMA ( 1, 1, 0) 对湖北省经济的预测一、模糊数学分析方法对企业经营 ( 偿债) 能力评价的适用性影响企业经营 ( 偿债) 和盈利能力的因素或指标很多; 在分析判断时, 对事物的评价 ( 或评估) 常常会涉及多个因素或多个指标。这时就要求根据多丛因素对事物作出综合评价, 而不能只从朱晓琳 曹 娜用应用模糊数学中的隶属度评价企业经营(偿债)能力问题影响企业经营能力的许多因素都具有模糊性, 难以对其确定一个精确量值; 为了使企业经营 ( 偿债) 能力评价能够得到客观合理的结果, 有必要根据一些模糊因素来改进其评价方法, 本文根据模糊数学中隶属度的方法尝试对企业经营 ( 偿债) 能力做出一种有效的评价。隶属度及函数 选取指标构建模型 经营能力评价应用理论探讨28

相关百科
热门百科
首页
发表服务