比较模型的工作原理与多元线性回归类似。
在多重逻辑回归对话框的比较选项卡上,首先为第二个模型指定主效应、交互作用和变换。在很多情况下,第二个模型会嵌套在第一个模型中(即使用第一个模型的效应、交互作用和变换的子集)。如果是这种情况,第二个模型将是一个 "简单 "模型。
对于逻辑回归,Prism 提供了两种比较模型的方法:阿凯克信息准则 (AICc) 和似然比检验 (LRT)。
AICc 是一种信息论方法,使用的是阿卡克准则的修正版。该方法考虑到每个模型的模型偏差,确定数据对每个模型的支持程度。在多元逻辑回归对话框的拟合优度选项卡上,还可以选择报告所选模型的模型偏差。结果以每个模型正确的概率表示,概率总和为 100%。显然,这种修正方法不考虑不同模型正确的可能性。它只是对要求比较的两个模型进行比较。如果一个模型比另一个正确的可能性大得多(比如 1%比 99%),你就会想选择它。但是,如果差别不是很大(比如 40% 对 60%),您就不能确定哪个模型更好,因此您需要收集更多的数据。了解更多有关这些计算方法的信息。重要的是,AICc 可用来比较同一数据集上的任意两个模型。
此检验值会报告为所选的每个模型计算出的 AICc 值之差。有关逻辑回归 AICc 计算方法的更多信息,请点击此处。
与 AICc 类似,LRT 也使用模型偏差来确定哪个模型更优。不过,与 AICc 不同的是,LRT 只适用于当一个模型是另一个模型的缩小版时进行检验。描述这种情况的另一种方法是说两个模型是 "嵌套 "的。虽然这种检验只有在模型嵌套时才有效,但 Prism 不会检查模型是否嵌套。因此,在选择使用该检验比较两个模型时必须谨慎。
检验统计量的计算方法是:较简单模型(参数较少的模型)与较复杂模型(参数较多的模型)的偏差之差:
LRT 统计量 = 偏差(简单模型)- 偏差(复杂模型)
给模型增加参数(几乎)总是会减小模型偏差。因此,检验统计量就是更复杂模型的偏差小多少。该统计量的值用于计算 P 值。P 值越小,说明拒绝了简单模型正确的零假设。在 Prism 中,您可以指定 P 值必须有多小才能拒绝这个零假设(默认值为 0.05)。