在我国,个人单独投资者自己参与股票投资所占的比例相对要更高,交易要更频繁.因此,我国股市的股指预测也是非常有意义的.
1.3回归分析方法的现状
回归分析方法的研究已经有了很悠久的历史,早期的回归分析方法大多都是利用线性回归分析去解决问题,线性回归是回归分析中最基础的方法,应用比较简单,方便。随着人们不断地研究,线性回归已经发展的已经非常成熟,在各方各面都取得了不错的成就.但随着时代的进步与发展,线性回归的局限性越发明显,往往很难解决一下复杂的问题,直到上世纪优尔十年代首次提出非线性回归方法,人们便把研究方向侧重于这方面,时至今日,非线性回归方法已经成为如今研究的主要方法之一.
2.回归分析方法
2.1线性回归方法
线性回归是最常用的数学方法之一,一般采用可控制变量X的取值后,实验得到应变随机量Y的一个值,可建立一个线性回归模型.如此实验n次,可得到n个对数( , )、( , )、…( , ),然后做线性回归分析.在此,采用可控制变量X的取值 (i=1,2,…,n)下,重复 次试验,得到n个数组( ; ,…, )、( ; ,…, )、…( ; ,…, ),可以重新建立一个改进的线性回归模型,然后对参数做出估计,并将总离差平方和分离为随机离差、剩余离差和回归离差,从而给出不同要求的检验方法.
假如在回归分析中,内容只包括一个自变量和一个因变量,则可以将二者的关系用一条直线近似来表示,我们将这种回归分析称为一元线性回归分析.在线性回归分析中,一元线性回归分析是最简单最基本的,也是进一步研究的基础。假如回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析,多元线性回归分析的原理与步骤与一元线性回归分析没有较大的区别,基本相同.
线性回归模型最常用到的方法是最小二乘逼近法,用该方法来拟合.但该方法并不是线性回归模型的唯一方法,比如利用最小化“拟合缺陷”在一些其他规范里,所以,即使“最小二乘法”和“线性模型”是紧密相连的,但却不能将他们划等号.
我们以一简单数据组来说明什么线性回归.假设有一组数据形态为y=y(x),其中x={0,1,2,3,4,5},y={0,20,60,68,77,110},随意假设一阶线性方程式y=20x,将MATLAB指令列出,并计算这个线性方程式的y值与原数据y值间误差平方的总和.
>>x=[0 1 2 3 4 5]
>>y=[0 20 60 68 77 110]
>>y1=20*x;% 一阶线性方程式的y1值
>>sum_sq=sum((y-y1).^2);% 误差平方总和为573
>>axis([-1,6,-20,120])
>>plot(x,y1,x,y,’o’),title(’linear estimate’), grid
这样随意的假设一个线性方程式并无根据,也可以采用其他不同的线性方程式;但是必须要有比较精确方式决定理想的线性方程式.最好要求其误差平方的总和为最小,因为这是最为理想的线性方程式的准则,该方法就成为最小平方误差或是线性回归.
通常来说,线性回归基本都可以通过最小二乘法得到其方程,可以计算出对于y=bx+a的直线,其经验拟合方程如下:
其相关系数可以用以下公式来计算:
r=
以STATA的输出结果为例来说明如何理解分析的结果。在计算过程中的回归系数是相当重要的,一般地,要求这个值大于5%,这样才有意义.
2.2非线性回归方法
如果有一种模型,它的回归参数并不是线性的,也不能用转换的方法将它变成线性的参数.这种模型我们称为非线性回归模型.在生活中有许多实际问题,通常回归函数是很复杂的非线性函数。解决非线性回归的基本方法是,通过变量变换,把非线性回归转化为线性回归,然后利用线性回归方法进行处理.假设根据理论和经验,已经获得输出变量与输入变量之间的非线性表达式,但表达式的系数是未知的,这时我们就要根据输入输出的n次观察结果来计算系数的值。利用最小二乘法原理求出系数的值,这样所得到的模型为非线性回归模型. 回归分析方法在股指预测中的应用(2):http://www.youerw.com/shuxue/lunwen_4999.html