Please enable JavaScript to view this site.

进行任何类型的回归时,通常关注的是研究与其他可能拟合的模型相比,模型如何很好地描述数据。Prism提供有多种方法可用于提供关于模型与所提供数据拟合程度的信息。具体而言,对于Cox比例风险回归,Prism将报告Akaike的信息标准(AIC)、部分对数似然(ll)、部分对数似然(-2*LL)的变换和伪R²的值。

Akaike信息标准(AIC)

该值来自试图确定数据与模型的拟合程度的信息论方法。报告的值取决于部分对数似然(如下所述)以及模型中的参数数量。请注意,由于在存在删失的情况下很难指定观察结果的数量,因此Prism和其他应用程序一样,只报告AIC,而未报告校正的AIC(AICc)。计算AIC所需的方程如下:

其中k是模型中的参数数量(由Prism在结果的数据总结部分中报告)

AIC解读

AIC的解读在很大程度上依赖于模型拟合的似然概念(具体而言,对数似然,或者,对于Cox回归,部分对数似然)。在不深入探讨似然背后数学运算的情况下,一般理念是,模型的似然告知数据与该模型的拟合程度(另一种思考方式是,如果假设所选模型是“真实”模型,则生成这些数据的“似然”有多大)。鉴于此,可以认为“良好”模型获得更高的似然值,而“不良”模型获得更低的似然值。

 

在以上方程中,可以看到AIC取决于两个方面:

1.模型的部分对数似然

2.模型中的参数数量(k)

 

Cox回归模型的部分对数似然只是部分似然的对数。如上所述,数据拟合良好的模型比数据拟合不佳的模型具有更高的似然。因此,数据拟合较好的模型将比数据拟合较差的模型具有更大的部分对数似然。通过将该值乘以一个负值,可以看到,与数据拟合较差的模型相比,数据拟合较好的模型产生的“-2*(部分对数似然)”值更小。因此,可以看到,更大的似然最终导致更小的AIC(忽略2k项,稍后讨论)。因此,可以认为AIC越小,模型拟合“更优”。

AIC方程的第二部分是“惩罚”项,试图防止过度拟合(在模型中使用过多参数)。对于任何模型,添加额外参数(不改变其他任何方面)通常会增加最终模型拟合的似然。在拥有足够参数的情况下,能够完美预测输入数据集中的数据(但该模型几乎肯定会在预测输入数据之外的未来观察结果方面表现得很糟糕)。这便是过度拟合问题:模型过于拟合输入数据。AIC公式增加的值等于模型中参数数量的两倍(2k),因此参数越多的模型,其AIC值增加的“惩罚”越多。

利用所有这些信息,可以开始更进一步了解AIC:

基于相同的数据,AIC值较小的模型比AIC值较大的模型具有更好的拟合效果

模型的参数越多,似然值越大,但其AIC值增加的“惩罚”就越多。

 

关于AIC值,需注意的最后一个非常重要的概念是,它们只能在拟合相同数据的模型之间进行比较!根据似然计算AIC值,而似然是特定于分析的数据集。因此,试图比较拟合不同数据集的模型的AIC值并无任何意义。此外,还需注意,使用AIC的差值而非AIC值的比例来评估模型的拟合“优于”或“劣于”其他模型。无法直接解释该比例,因此未报告。

 

因此,正如Prism for Cox回归报告的那样,解释AIC的最佳方法是将为指定模型提供的AIC值与拟合相同数据的另一个(竞争的)指定模型的零模型进行比较。与零模型相比,指定模型的AIC较小,表明所选参数改善模型拟合。比较两个竞争模型时,考虑到每个模型中包含的参数数量,可视为使用AIC的模型整体拟合更好。

关于AIC的高级信息

比较模型时(例如,在相同数据上比较两个竞争模型或比较指定模型与零模型),可以使用每个模型的相应AIC值计算每个模型正确的“概率”(假设这些是仅有的可能模型,因此其中一个必须正确)。为此,可以利用两个AIC值之间的差值。首先,为每个模型定义一个新值:

其中,AICi是个体模型的AIC,min(AIC)是比较模型中所有可能的AIC值中的最小值。请注意,对于具有最小AIC值的模型,AICi将等于min(AIC),因此该模型的Δi将为零。获得每个模型的Δ值后,便可以使用以下公式计算每个模型正确的“概率”:

 

例如,考虑用以下AIC值比较两个模型:

模型1 AIC:283

模型2 AIC:285

 

因此,这些模型的Δ值如下:

模型1 Δ:0

模型2 Δ:2

 

每个模型正确的概率的计算方式如下:

模型1 w:73.11%

模型2 w:26.89%

 

该方法可以扩展到说明任何数量的模型的比较情况,但请记住,采用该方法的假设是指所比较的模型之一是“真实”模型(但这种假设在实践中可能根本不真实)。

部分对数似然(LL)

似然概念在数学上相当复杂,作为Cox比例风险回归分析的一部分,在估计最佳拟合参数值的过程中使用。但(幸运的是)使用部分对数似然来评估模型拟合的方法非常简单。通常情况下,比较拟合相同数据的两个模型时,可以认为模型的对数似然越大,“拟合”越优。请注意,这些对数似然值通常为负值!在此情况下,较大的值与较小的负值相同。因此,模型的负值越小,“拟合”越好。

选择该选项时,对于无协变量的模型(零模型)和指定模型,将在结果中给出部分对数似然值。如果所选模型的部分对数似然小于零模型的负对数似然,则意味着输入数据更有可能由指定模型生成,而非由零模型生成。然而,每个模型的AIC值通常用于确定哪个模型“更优”(AIC值越小,模型拟合“越优”)。

负二倍部分对数似然(-2*LL)

类似于Prism在本部分结果中报告的其他值,该值与部分对数似然相关,可用于评估模型与给定数据的拟合程度。如前所述,计算AIC时,直接使用“-2*(部分对数似然)”值。幸运的是,一旦获得部分对数似然(由Prism报告),计算该值只需乘以-2即可!其他程序和书籍有时会以其他等效方式报告该公式:

伪R2

考虑回归分析的“拟合优度”时,通常会出现R²的概念。该指标可提供模型所解释的方差的估计值,且在进行多元线性回归时非常有用,但无法为Cox比例风险回归计算同一指标。因此,提出了许多其他“伪R²”类似值。请注意,这些值与R²的数学解释不同。伪R²值不代表指定模型解释的方差比例。作为替代,这些伪R²值通常用于比较同一数据上多个模型的拟合优度。

如果在Cox比例风险回归的参数对话框中选择,Prism将报告Cox-Snell的R²(有时称为“广义”R²)。根据以下公式,使用指定模型和零模型(无协变量的模型)的似然值计算该值:

 

其中,Lm是指定模型的部分似然(注意,并非对数似然),L0是无协变量模型(零模型)的部分似然,n是模型中使用的观察结果数量(包括删失观察结果)。

基于该伪R2方程,可以看出,在模型更好地拟合数据时(Lm的部分似然值更高),分数越小,R2值较大。在给定模型的部分似然较小时,分数较大,相应的R2值较小。类似于在正态(最小二乘)回归中观察到的R2值,该公式的最小值为0(如果指定模型的部分似然与零模型相同,R2将等于零)。然而,不同于标准R2,该伪R2的上限并非1!作为替代,如果模型完全拟合数据,且模型的似然为1,则得到方程:

 

零模型的部分似然通常非常小,但非零。因此,Cox-Snell R2的最大值取决于零模型的似然,可能非常接近1(有时非常接近,计算机无法计算出差值),但不一定等于1。

 

总结如下:

该伪R2的最小值是0.0

该伪R2的最大值小于1.0,但在许多情况下非常接近1.0

© 1995-2019 GraphPad Software, LLC. All rights reserved.