Please enable JavaScript to view this site.

线性回归的工作原理是拟合一个模型,在给定X值的情况下,可使用该模型来确定Y的实际值。此模型提供了有关这两个变量之间关系的信息,并回答了这样一个问题:随着X值的变化,Y的值会变化多少?换言之,使用已正确定义数据的线性回归模型,仅仅通过知道预测因子值,您就可很好预测结果值。相反,在给定预测因子值的情况下,逻辑回归会对观察成功的概率进行建模。以下方所示数据为例:

在此图中,我们所有数据点取值0(未通过)或1(通过)。逻辑拟合为S曲线,其将成功概率建模为学习时间的函数。在该示例中,教师会很高兴地看到,学习4个小时的学生很少考试未通过。事实上,对于一个学习了4个小时的学生来说,该模型预测通过的概率约为70%。

S曲线是逻辑函数估计概率的副产物。请注意,概率限制在0和1之间,这是有意义的:不能为事件发生设置“负概率”,大于100%的概率也没有任何意义。因此,S曲线的上限和下限也受到这些值的限制。但这意味着,与线性回归不同,我们从模型中得到的值并不能直接估计我们期望观察到的值。在X=4时,模型值为0.704。然而,对于我们在X=4时所做的任何观察,结果只会是0或1;观察值永远不会是0.704。该模型简单地告诉我们,X=4时,我们可预期约70%的结果为1。这是理解逻辑回归的一个关键点。

如果我们采用相同的数据比较逻辑回归模型和线性回归模型,我们会很快明白为什么简单线性回归模型对这种数据不起作用。

我们的数据仍是0和1,但与逻辑模型不同,线性模型不能预测成功的概率。取而代之的是,其预测的值可小于0,也可大于1。例如,该模型预测,如果学生的学习时间少于0.9小时,则通过测试的估计值为负值。在某些情况下,二元独立变量可使用线性模型,进行简单的分类。然而,这些方法无法解读系数、显著性检验和置信区间。对于这些结果(结果为二元时),请使用逻辑回归。

 

© 1995-2019 GraphPad Software, LLC. All rights reserved.