数学建模*五大模型之一 之预测模型详解上
  • 数学建模*五大模型之一 之预测模型详解上

产品描述

许可形式单机和网络版 原产地中国 介质下载 适用平台windows,mac

图片1

预测模型是数学建模中利用数学、统计和算法,基于历史数据、趋势及外部因素,构建模型以预测未来现象、趋势或结果的工具。它广泛应用于经济、金融、市场、气象、环境等领域,旨在提供准确预测,辅助决策者制定有效策略。


本文将详细介绍以下4种数学建模中常用的预测模型,包括:

1.时间序列ARIMA模型

2.灰色预测模型GM(1,1)

3.BP神经网络

4.支持向量机回归(SVR)


对其关键术语、理论、优缺点进行详细阐述并且提供案例实战,帮助大学生们更好地掌握这些模型,提升竞赛能力。


1、掌握时间序列的奥秘—— ARIMA模型解析

ARIMA模型,全称为自回归差分移动平均模型,是时间序列数据分析和预测的强大工具。它由自回归(AR)、差分(I)和移动平均(MA)三部分组成。ARIMA模型适用于平稳或非平稳但可转化为平稳的时间序列数据,能够捕捉长期趋势和季节性变化。


01、模型关键术语

(1)自回归(AR):想象一下,你正在预测明天的天气,你可能会参考今天、昨天甚至前几天的天气情况来做出预测,这种基于过去数据来预测未来的方法,就是自回归的思想。在ARIMA模型中,自回归部分就是使用过去的时间序列值来预测当前或未来的值。

(2)差分(I):有时候,时间序列数据并不稳定,比如有明显的上升或下降趋势,为了让数据变得稳定,我们可以对它进行差分处理。简单来说,差分就是计算相邻时间点上的数据差异。通过差分,我们可以消除趋势和季节性变化,使得数据更容易被模型捕捉和预测。

(3)移动平均(MA):移动平均是一种平滑技术,用于减少时间序列数据中的随机波动,在ARIMA模型中,移动平均部分使用过去的预测误差(即实际值与预测值之间的差异)来修正当前的预测。这样做可以使得预测结果更加平滑和准确。


02、模型理论

ARIMA模型的基本原理是,通过结合自回归、差分和移动平均这三种技术,对时间序列数据进行建模和预测,模型会尝试找到时间序列数据中的规律性和趋势性,并利用这些规律来预测未来的数据点。


ARIMA模型的一般形式为ARIMA(p, d, q),其中:

p:自回归项数,表示模型中使用的过去观测值的数量。

d:差分的阶数,表示为了使序列平稳而进行的差分次数。

q:移动平均项数,表示模型中用于预测误差的过去误差项的数量。


ARIMA(p, d, q)的公式可以表示为:

1

其中:

2

是自回归多项式,L是滞后算子。

3

表示对原始时间序列Yt进行d阶差分。

4

是移动平均多项式。

ϵt是白噪声序列,代表误差项。

c是常数项(在某些情况下可以为0)。


ARIMA模型的建模过程可以分为以下四个步骤:


步骤1:时间序列的平稳性检验。通常采用ADF或PP检验方法,对原始序列进行单位根检验.如果序列不满足平稳性条件,可以通过差分变换或者对数差分变换,将非平稳时间序列转化为平稳时间序列,然后对平稳时间序列构建ARIMA模型;

步骤2:确定模型的阶数。通过借助一些能够描述序列特征的统计量,如自相关(AC)系数和偏自相关(PAC)系数,初步识别模型的可能形式,然后根据AIC等定阶准则,从可供选择的模型中选择一个较佳模型;

步骤3:参数估计与诊断检验。包括检验模型参数的显著性,模型本身的有效性以及检验残差序列是否为白噪 声序列.如果模型通过检验,则模型设定基本正确,否则,必须重新确定模型的形式,并诊断检验,直至得到设定正确的模型形式;

步骤4:用建立的ARIMA模型进行预测。


03、模型优缺点分析

优点:适用于平稳或非平稳但可转化为平稳的时间序列数据,能够较好地捕捉数据的长期趋势和季节性变化。

缺点:对数据要求高,需要时间序列数据是平稳的或者通过差分后变得平稳;对异常值敏感,可能影响模型的准确性。


04、模型SPSSPRO实现

基于1985-2021年某杂志的销售量,预测某商品的未来七年的销售量。


案例数据:

5


操作步骤:

6



部分结果展示:

7


2、少量数据,大有作为——灰色预测模型GM(1,1)

灰色预测模型GM(1,1)利用累加生成算子使数据具备指数规律,然后建立一阶微分方程求解,最后将结果累减还原得到预测值。该模型对数据要求不高,计算简便,适合短期预测,但对长期预测和非单调变化的数据序列效果较差。


01、模型关键术语

(1)灰色系统:想象一下,你有一个盒子,里面装了一些东西,但你看不清楚里面具体是什么,只能看到模糊的影子或者猜测里面可能有哪些东西,这就是灰色系统,它表示我们只知道部分信息,还有部分信息是不确定的。

(2)GM(1,1)模型:GM代表灰色模型,两个1分别表示这个模型只考虑一个变量(通常是时间),并且这个模型是一阶的(也就是相对简单,容易理解)。

(3)累加生成算子(AGO):这个听起来很复杂,但其实就是把原来的数据加起来,变成一个新的数据序列。比如你有1, 2, 3这三个数,累加后就变成了1, 3, 6,这样做是为了让数据看起来更有规律,更容易预测。

(4)级比检验:在建立模型之前,我们要检查原始数据是不是可以用这个模型来预测,级比检验就是帮助我们做这个判断的,它看看数据之间的比例关系是不是合适。

(5)紧邻均值生成数列:在累加后的新数据序列中,我们取每两个相邻的数的平均值,得到一个新的数列,这个数列会帮助我们建立预测模型。

(6)灰微分方程:这是一个用来描述数据变化规律的数学公式,通过它,我们可以知道数据是怎么变化的,从而预测未来的数据。

(7)发展系数(a)和灰色作用量(b):这两个是灰微分方程里的“魔法数字”,它们决定了数据变化的快慢和方向。我们通过一些方法(比如较小二乘法)可以找到这两个数字。

(8)累减还原:在得到累加后的预测值之后,我们需要把它们“变回”原来的样子,也就是累减。累减就是连续两次相减,把累加的结果还原成原始数据的预测值。


02、模型理论

GM(1,1)预测模型的简要原理是指:首先利用累加的技术使数据具备指数规律,然后建立一阶微分方程并对其求解,将所求结果再累减还原,即为灰色预测值,从而对未来进行预测 。


步骤1:在建立灰色预测模型之前必须要**建模方法的可行性,即需要对已知的原始数据进行级比检验 。设初始非负数据序列为:

8

只有当所有的σ(k)全部落入计算范围内才可以进行模型的建立。级比的计算和判断公式分别为:

9

通过累加运算后得到的x(0)一阶累加序列可以弱化x(0) 的扰动:

10

z(1) 是x(1) 的紧邻均值生成的序列

11-1

11-2

故可以求得GM(1,1)模型对应微分方程为:

12

其中z(1) 为GM(1,1)模型的背景值 。


步骤2:构建数据矩阵B及数据向量Y ,分别为

13

则灰色微分方程的较小二乘估计参数列满足

14

其中,a主要控制系统发展态势,被称为发展系数;b的大小反映数据变化的关系,被称为灰色作用量。


步骤3: 建立模型并求解生成值与还原值。依据公式求解,可得到预测模型

15

经过累减,得到还原预测值。


03、模型优缺点分析

优点:对数据要求不高,只需要少量数据即可建模;计算简便,易于实现。

缺点:只适用于短期预测,对于长期预测效果较差;对于非单调变化的数据序列预测效果不理想。


04、模型SPSSPRO实现

基于某杂志2006-2021年某产品的年销售量,使用灰色预测模型对未来三年销售量进行预测。


案例数据:

16

案例操作:

17


部分结果展示:

18


3、从输入到输出——深度剖析BP神经网络

BP神经网络,即反向传播神经网络,是一种多层前馈神经网络。它由输入层、隐藏层和输出层组成,通过反向传播算法调整权重和偏置,以较小化预测误差。输入层接收数据,隐藏层进行复杂处理,输出层给出预测结果。BP神经网络能够处理非线性关系,具有强大的学习和适应能力,但也存在模型复杂度高、易陷入局部较优解等缺点。


01、模型关键术语

(1)输入层:这像是“耳朵”和“眼睛”,负责接收外界的信息或数据。比如,如果我们想预测明天的天气,那么输入层就会接收像今天的气温、湿度、气压这样的数据。

(2)隐藏层:这像是“大脑”,它有很多层(有时候只有一层),每一层都有很多“神经元”。这些“神经元”会对输入层传来的信息进行各种复杂的处理,试图找出其中的规律和模式。隐藏层越多,模型就越复杂,但也可能更准确地捕捉到数据中的细微差别。

(3)输出层:这像“嘴巴”,负责把处理后的结果告诉我们。比如,在预测天气的例子中,输出层可能会告诉我们明天的气温、湿度、是否下雨等信息。


02、模型理论

BP神经网络的核心是反向传播算法,该算法用于调整网络中的权重和偏置,以较小化预测误差。在训练过程中,网络首先根据输入数据前向传播得到预测结果,然后计算预测误差,接着利用梯度下降法等优化算法反向传播误差,更新网络中的权重和偏置,以减小误差。这个过程会不断迭代,直到达到预设的停止条件(如误差小于某个阈值、迭代次数达到上限等)。


以一个三层BP神经网络举例:

19

隐含层的输出量设为Fj,输出层的输m量设为Ok, 系统 的激励函数设为G, 学习速率设为β,则其三个层之间有如下数学关系:

20

系统期望的输出量设为Tk,则系统的误差E可由 实际输出值和期望目标值的方差表示,具体关系表达式如下:

21

并令:

22

利用梯度下降原理, 则系统权值和偏置的更新公式如下:

23


03、模型优缺点分析

优点:能够处理非线性关系,具有强大的学习和适应能力;可以处理多输入多输出问题。

缺点:模型复杂度高,需要大量的训练数据;容易陷入局部较优解;对参数(如学习率、隐藏层节点数)的选择敏感。


04、模型SPSSPRO实现

研究“幸福感”的影响因素,有四个变量可能对幸福感有影响,它们分别是:经济收入、受教育程度、身体健康、情感支持。建立支持bp神经网络模型来预测幸福度。


案例数据:

24


案例操作:

25


部分结果展示:

26


4、寻找较佳拟合面——支持向量机回归探秘

SVR通过寻找一个较优超平面来拟合数据,使得数据点到超平面的距离较小。SVR引入了ε-不敏感损失函数,允许预测值与实际值之间存在一定偏差,从而避免过拟合并提高泛化能力。SVR适用于高维数据,具有良好的泛化能力,但对参数选择较为敏感。


01、模型关键术语

(1)超平面:在SVR中,超平面代表了我们试图找到的较佳拟合线或面,用于预测新数据点的值。这个超平面的位置是通过优化算法确定的,旨在较小化数据点到超平面的全局性误差(在ε-不敏感损失函数的框架下)。

(2)支持向量:支持向量是那些对确定超平面位置起关键作用的数据点。在SVR中,它们通常是距离超平面较近且位于ε-不敏感带之外的数据点,这些点决定了超平面的精确位置和形状。

(3)误差(或损失):在SVR中,误差的计算基于ε-不敏感损失函数。如果数据点位于超平面两侧的ε-不敏感带内,则其误差被视为0;如果数据点的误差(即距离超平面的距离)超过ε,则这部分误差会被计入损失函数。

(4)ε-不敏感损失函数:这是一个允许SVR在预测时有一定容错范围的函数。通过设置ε的值,可以控制模型对误差的敏感度,从而避免过拟合并提高模型的泛化能力。它定义了一个宽度为2ε的间隔带,只有在间隔带外的数据点的误差才会被计入损失。


02、模型理论

对于一般的回归问题,给定训练样本集D={(x1,y1),(x2,y2),…,(xn,yn)},SVR的目标是学习一个函数f(x),该函数能够使得预测值f(x) 与实际值y之间的差异尽可能小。与传统的回归方法不同,SVR通过引入ε-不敏感损失函数来实现这一目标。


具体来说,SVR假设预测值f(x) 与实际值y之间可以存在一定的偏差,这个偏差的阈值由ε决定。如果f(x) 与y的差的绝对值小于或等于ε,则认为预测是“足够好”的,此时不计算损失。只有当差的绝对值大于ε时,才会计算损失,并尝试通过调整超平面的位置来较小化这些超出ε的数据点的总误差。


因此,SVR的优化问题可以转化为寻找一个超平面,使得所有数据点到该超平面的距离(在ε-不敏感损失函数的框架下计算)之和较小。这个过程中,支持向量起到了关键作用,因为它们直接决定了超平面的位置。

27

因此SVR问题可转化为(下式左部是正则化项):

28

上式左部是正则化项,右部式损失函数:

29

因此引入了松弛因子,SVR问题就是:

30

最后引入拉格朗日乘子,可得拉格朗日函数:

31

对四个遍历求偏导,令偏导数为零,可得:

32

把上边的式子带入,即可求得SVR的对偶问题:

33

上边的过程需要满足KKT条件,即

34

最后,可得SVR的解为:

35


03、模型优缺点分析

优点:适用于高维数据,具有良好的泛化能力;通过引入ε-不敏感损失函数,能够控制模型的复杂度和避免过拟合。

缺点:对参数(如ε、核函数)的选择敏感;对于大规模数据集的训练时间较长。


04、模型SPSSPRO实现

研究“幸福感”的影响因素,有四个变量可能对幸福感有影响,它们分别是:经济收入、受教育程度、身体健康、情感支持。建立支持向量机回归模型来预测幸福度。


案例数据:

36


案例操作:

37


部分结果展示:

38


这4种常见的预测模型介绍到这里就结束啦~下篇我们将继续分享更多常用的预测模型。



以上文章来源于SPSSPRO,作者SPSSPRO。


北京天演融智软件有限公司(科学软件网)是SPSSPRO在中国的授权经销商,为中国的软件用户提供优质的软件销售和培训服务。




http://www.kxrjsoft.com.cn
产品推荐

Development, design, production and sales in one of the manufacturing enterprises

您是第2713662位访客
版权所有 ©2024-10-07 京ICP备10040123号

北京天演融智软件有限公司 保留所有权利.

技术支持: 八方资源网 免责声明 管理员入口 网站地图