回归分析法(回归分析excel操作)

今天给各位分享回归分析法的知识,其中也会对回归分析excel操作进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!本文目录一览: 1、回归分析法 2、...

今天给各位分享回归分析法的知识,其中也会对回归分析excel操作进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

回归分析法

回归分析法,是在研究矿坑涌水量与其影响因素存在一定相关关系后,提出的一种数理统计方法。矿坑涌水量是在各种自然和人为因素综合作用下有规律地变化着。影响矿坑涌水量变化的因素极其复杂繁多,甚至有些因素我们目前还没有发现,有些因素虽被发现但也无力调控和测定。因此,大量事实告诉我们,矿坑涌水量(称为因变量)与某些影响因素(称为自变量)的关系也存在数学中称之为相关的关系。回归分析法就是利用数学统计的方法,找出矿坑涌水量与影响因素之间的相关关系的数学表达式——回归方程,用求得的回归方程来预测矿坑涌水量。

回归分析法与水文地质比拟法的原理基本相同,都是寻求矿坑涌水量与其主要影响因素之间的关系表达式,并以这种寻找到的数学关系式来预测新的矿坑涌水量。所不同的是数学表达式的来源不同。水文地质比拟法,多数是根据经验提出,用起来方便灵活,缺点是缺乏严密性;回归分析法,是以已经有的实测数据为基础,通过数理统计的方法建立回归方程,其优点是可靠性较水文地质比拟法大一些,但计算较复杂。

应该注意的是,回归方程是一种非确定性的变量关系,严格地讲,它不允许外推。但具体工作中往往又需要外推,因此,回归方程外推的范围不宜过大。当回归方程为直线时,外推深度一般不应超过试验降深的1.5~1.75倍;当回归方程为曲线相关时,虽可适当增大外推范围,但一般也不宜超过2倍。同时,必须根据矿床具体的水文地质条件,检验外推结果是否合理。

几种常用的回归方程如下:

(一)二元直线相关

当矿坑涌水量与主要影响因素之间为直线相关关系时,其数学表达式为

Q=a+bs (4-5)

式中:Q为试验时的涌水量;S为当抽水量为Q时相对应的水位降深;a为常数;b为回归系数,它表示当S每增加1m时涌水量平均增加的水量数值。

a,b可根据试验数据利用最小二乘法求得

双层水位矿床地下水深层局部疏干方法的理论与实践

式中:

为试验时各次涌水量的算术平均值,即

为试验时各次降深的算术平均值,即

;n为试验观测次数。

根据求得的a,b系数值,便可写出回归方程。

(二)三元直线相关

如果矿坑涌水量与两个影响因素存在直线相关时,其数学表达式便为三元直线相关(比如降深S和时间t):

Q=b0+b1S+b2t (4-8)

式中:b0为常数;b1,b2分别为水量Q对自变量S和t的回归系数;S,t为当矿坑涌水量为Q时的两个因素自变量;b0,b1,b2可用最小二乘法确定;

双层水位矿床地下水深层局部疏干方法的理论与实践

根据求得的b0,b1,b2可以写出三元直线方程。

(三)涌水量-降深曲线法(Q-S曲线法)

涌水量-降深曲线法也称涌水量曲线法,其实质就是利用抽(放)水的试验资料,建立涌水量(Q)和降深(S)之间的关系曲线方程,根据试验阶段和未来开采阶段水文地质条件的相似性,合理地把Q-S曲线外推,来预测矿坑涌水量。

大量试验资料证明,涌水量曲线一般有4种类型(图4-1)。

图4-1 涌水量-降深曲线图

(1)直线型

Q=bs

式中:

这种类型的曲线方程,一般表现为地下水流呈层流状态,抽水时水位降深与含水层厚度相比很小。

(2)抛物线型

S=aQ+bQ2 (4-11)

双层水位矿床地下水深层局部疏干方法的理论与实践

(3)幂函数曲线型

双层水位矿床地下水深层局部疏干方法的理论与实践

(4)对数曲线型

Q=a+blgS (4-17)

式中:

双层水位矿床地下水深层局部疏干方法的理论与实践

上述各式中a,b均为待定系数,求出a,b后便可写出涌水量曲线方程。

一般情况下,图4-1中的2号曲线代表的是抛物线型曲线,它表示强富水性含水层在抽水强烈时,地下水抽水井附近出现三维流的情况下的曲线形态;第3,4两种类型曲线一般表示含水层规模较小,补给条件比较差情况下出现的曲线类型。

涌水量曲线方程的形态不但与含水层的规模、性质以及补给径流条件有关,而且与抽水强度的大小和抽水时间长短也有关系。因此,采用Q-S曲线方程法预测矿坑涌水量时,一般要求抽(放)水试验的规模尽量大一些,常采取大口径、大降深群孔抽(放)水试验,以求尽量符合未来的开采状态,充分揭露和显示其尽量多的水文地质条件,尽量波及矿床的各种边界,从而求取最大可能符合实际条件的矿坑涌水量。

回归分析法计算公式是什么?

相关计算公式为:a=[∑Xi2∑Yi-∑Xi∑XiYi]/[n∑Xi2-(∑Xi)2],b=[n∑XiYi-∑Xi∑Yi]/[n∑Xi2-(∑Xi)2]。

回归直线法是根据若干期业务量和资金占用的历史资料,运用最小平方法原理计算不变资金和单位产销量所需变动资金的一种资金习性分析方法。

回归分析法主要解决的问题:

1、确定变量之间是否存在相关关系,若存在,则找出数学表达式。

2、根据一个或几个变量的值,预测或控制另一个或几个变量的值,且要估计这种控制或预测可以达到何种精确度。

什么是回归分析法

回归分析(英语:Regression Analysis)是一种统计学上分析数据的方法,目的在于了解两个或多个变量间是否相关、相关方向与强度,并建立数学模型以便观察特定变量来预测研究者感兴趣的变量。

回归分析中,当研究的因果关系只涉及因变量和一个自变量时,叫做一元回归分析;当研究的因果关系涉及因变量和两个或两个以上自变量时,叫做多元回归分析。此外,回归分析中,又依据描述自变量与因变量之间因果关系的函数表达式是线性的还是非线性的,分为线性回归分析和非线性回归分析。回归分析法预测是利用回归分析方法,根据一个或一组自变量的变动情况预测与其有相关关系的某随机变量的未来值。进行回归分析需要建立描述变量间相关关系的回归方程。根据自变量的个数,可以是一元回归,也可以是多元回归。根据所研究问题的性质,可以是线性回归,也可以是非线性回归。非线性回归方程一般可以通过数学方法为线性回归方程进行处理。

常见的回归分析方法有哪些?

1/6分步阅读

1.线性回归方法:通常因变量和一个(或者多个)自变量之间拟合出来是一条直线(回归线),通常可以用一个普遍的公式来表示:Y(因变量)=a*X(自变量)+b+c,其中b表示截距,a表示直线的斜率,c是误差项。如下图所示。

2/6

2.逻辑回归方法:通常是用来计算“一个事件成功或者失败”的概率,此时的因变量一般是属于二元型的(1 或0,真或假,有或无等)变量。以样本极大似然估计值来选取参数,而不采用最小化平方和误差来选择参数,所以通常要用log等对数函数去拟合。如下图。

3/6

3.多项式回归方法:通常指自变量的指数存在超过1的项,这时候最佳拟合的结果不再是一条直线而是一条曲线。比如:抛物线拟合函数Y=a+b*X^2,如下图所示。

4/6

4.岭回归方法:通常用于自变量数据具有高度相关性的拟合中,这种回归方法可以在原来的偏差基础上再增加一个偏差度来减小总体的标准偏差。如下图是其收缩参数的最小误差公式。

5/6

5.套索回归方法:通常也是用来二次修正回归系数的大小,能够减小参量变化程度以提高线性回归模型的精度。如下图是其惩罚函数,注意这里的惩罚函数用的是绝对值,而不是绝对值的平方。

6/6

6.ElasticNet回归方法:是Lasso和Ridge回归方法的融合体,使用L1来训练,使用L2优先作为正则化矩阵。当相关的特征有很多个时,ElasticNet不同于Lasso,会选择两个。如下图是其常用的理论公式。

回归分析法中包括什么

回归分析法指利用数据统计原理,对大量统计数据进行数学处理,并确定因变量与某些自变量的相关关系,建立一个相关性较好的回归方程(函数表达式),并加以外推,用于预测今后的因变量的变化的分析方法。根据因变量和自变量的个数分为:一元回归分析和多元回归分析;根据因变量和自变量的函数表达式分为:线性回归分析和非线性回归分析。

什么是回归分析?主要内容是什么

在统计学中,回归分析(regression analysis)指的是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。回归分析按照涉及的变量的多少,分为一元回归和多元回归分析;按照因变量的多少,可分为简单回归分析和多重回归分析;按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。

拓展资料

在大数据分析中,回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系。例如,司机的鲁莽驾驶与道路交通事故数量之间的关系,最好的研究方法就是回归。

方法

有各种各样的回归技术用于预测。这些技术主要有三个度量(自变量的个数,因变量的类型以及回归线的形状)。

1. Linear Regression线性回归

它是最为人熟知的建模技术之一。线性回归通常是人们在学习预测模型时首选的技术之一。在这种技术中,因变量是连续的,自变量可以是连续的也可以是离散的,回归线的性质是线性的。

线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一个或多个自变量(X)之间建立一种关系。

多元线性回归可表示为Y=a+b1*X +b2*X2+ e,其中a表示截距,b表示直线的斜率,e是误差项。多元线性回归可以根据给定的预测变量(s)来预测目标变量的值。

2.Logistic Regression逻辑回归

逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,应该使用逻辑回归。这里,Y的值为0或1,它可以用下方程表示。

odds= p/ (1-p) = probability of event occurrence / probability of not event occurrence

ln(odds) = ln(p/(1-p))

logit(p) = ln(p/(1-p)) =b0+b1X1+b2X2+b3X3....+bkXk

上述式子中,p表述具有某个特征的概率。你应该会问这样一个问题:“为什么要在公式中使用对数log呢?”。

因为在这里使用的是的二项分布(因变量),需要选择一个对于这个分布最佳的连结函数。它就是Logit函数。在上述方程中,通过观测样本的极大似然估计值来选择参数,而不是最小化平方和误差(如在普通回归使用的)。

3. Polynomial Regression多项式回归

对于一个回归方程,如果自变量的指数大于1,那么它就是多项式回归方程。如下方程所示:

y=a+b*x^2

在这种回归技术中,最佳拟合线不是直线。而是一个用于拟合数据点的曲线。

4. Stepwise Regression逐步回归

在处理多个自变量时,可以使用这种形式的回归。在这种技术中,自变量的选择是在一个自动的过程中完成的,其中包括非人为操作。

上一篇:肖恩雷登(肖恩雷登和西斯)
下一篇:重新出发(重新出发的诗句)

为您推荐

发表评论